O modelo local resolveu a questão em 2,5 segundos, (5 minutos para uma questão não é um pouco longo demais?) 5 minutos para uma questão é mais do que suficiente, e vocês ainda estão usando um modelo API caro na nuvem e pagando as despesas do servidor, então se puderem implantar localmente, façam-no. A conta de eletricidade dá mais de 100 por mês, é como usar o computador no dia a dia.
我叫美元
我叫美元18/02/2026
Compartilhe a experiência de mineração com a implementação local do @agentcoinsite, para evitar armadilhas para os amigos que querem entrar 👇 Hardware: RTX 4090 (24GB) Modelo: Qwen2.5:32B (quantização Q4_K_M, ocupa ~20GB de VRAM) Ferramentas: Ollama + script Python Alguns pontos-chave: 1️⃣ O modelo deve ser a versão quantizada de 4 bits, caso contrário, a VRAM não será suficiente 2️⃣ Defina OLLAMA_KEEP_ALIVE=-1 para manter o modelo na VRAM, caso contrário, cada solicitação terá que recarregar 3️⃣ A nova versão da biblioteca Python da OpenAI tem problemas de compatibilidade com o Ollama, recomenda-se usar diretamente requests para chamar a API nativa Agora está rodando automaticamente, a conta de energia troca por AGC, economizando muito em comparação com a API em nuvem 🚀 #AgentCoin #AGC #LocalLLM #RTX4090
@agentcoinsite 2026-02-18 03:02:19 [ERROR] Falha ao obter o estado do Agent: 503 Erro do Servidor: Serviço Indisponível para a URL: @agentcoinsite Manutenção em andamento?
1,75K