O modelo local resolve o problema em 2,5 segundos (será que o período de janela de 5 minutos é longo demais). A janela de 5 minutos é mais do que suficiente, e você também usa uma API de modelo tão cara para rodar na nuvem e pagar pelo servidor, então se você pode implantar localmente, pode implantar localmente, e a conta de luz é superior a 100 por mês, o mesmo que seu uso diário do computador. @agentcoinsite
我叫美元
我叫美元18 de fev. de 2026
Compartilhe a experiência de implantação local @agentcoinsite mineração e dê aos amigos que querem embarcar no carro a possibilidade de evitar armadilhas 👇 Hardware: RTX 4090 (24GB) Modelo: Qwen2.5:32B (Q4_K_M quantização, ocupa ~20GB de VRAM) Ferramentas: Ollama + Python scripting Alguns pontos-chave: 1️⃣ O modelo deve ser selecionado para a versão quantitativa de 4 bits, caso contrário ele não será 2️armazenado no display ⃣ Set OLLAMA_KEEP_ALIVE=-1 para que o modelo persista na memória, caso contrário terá que ser recarregado 3️toda vez que for solicitado ⃣. A nova versão da biblioteca Python da OpenAI tem problemas de compatibilidade com o Ollama, então recomenda-se usar solicitações diretamente para ajustar a API nativa Agora está rodando automaticamente, e a conta de eletricidade foi alterada para AGC, o que é muito mais econômico 🚀 do que a API em nuvem #AgentCoin #AGC #LocalLLM #RTX4090
@agentcoinsite 2026-02-18 03:02:19 [ERRO] Não foi possível obter o status do agente: 503 Erro do servidor: Serviço Não disponível para URL: @agentcoinsite Manter isso?
1,78K