Il modello locale ha risolto il problema in 2,5 secondi, (5 minuti per un problema non è un po' troppo lungo?) 5 minuti per un problema sono più che sufficienti, e voi continuate a utilizzare un modello API cloud così costoso e a pagare i costi del server, quindi se potete implementare localmente, fatelo. Le spese per l'elettricità si aggirano sui 100 euro al mese, come usare normalmente un computer.
我叫美元
我叫美元18 feb 2026
Condivido un po' di esperienza sul mining con @agentcoinsite in locale, per evitare trappole agli amici che vogliono entrare 👇 Hardware: RTX 4090 (24GB) Modello: Qwen2.5:32B (quantizzazione Q4_K_M, occupa ~20GB di memoria video) Strumenti: Ollama + script Python Alcuni punti chiave: 1️⃣ Assicurati di scegliere la versione quantizzata a 4 bit del modello, altrimenti la memoria video non basta 2️⃣ Imposta OLLAMA_KEEP_ALIVE=-1 per mantenere il modello in memoria video, altrimenti ogni richiesta richiede un nuovo caricamento 3️⃣ La nuova versione della libreria Python di OpenAI ha problemi di compatibilità con Ollama, si consiglia di utilizzare direttamente requests per chiamare l'API nativa Ora sta funzionando automaticamente, il costo dell'elettricità viene convertito in AGC, risparmiando molto rispetto all'API cloud 🚀 #AgentCoin #AGC #LocalLLM #RTX4090
@agentcoinsite 2026-02-18 03:02:19 [ERROR] Impossibile ottenere lo stato di Agent: 503 Errore del server: Servizio non disponibile per l'url: @agentcoinsite puoi fare un po' di manutenzione?
1,76K