Das lokale Modell hat die Aufgabe in 2,5 Sekunden gelöst, (ist das Zeitfenster von 5 Minuten nicht ein bisschen zu lang?) Ein Zeitfenster von 5 Minuten pro Aufgabe ist mehr als ausreichend, und ihr verwendet immer noch so teure Modell-APIs in der Cloud und zahlt die Serverkosten. Daher, wenn es möglich ist, lokal zu deployen, dann macht es auch. Die Stromkosten belaufen sich auf über 100 Euro im Monat, das ist wie die tägliche Nutzung eines Computers. @agentcoinsite
我叫美元
我叫美元18. Feb. 2026
Teile meine Erfahrungen mit dem Mining von @agentcoinsite im lokalen Deployment, um Freunden, die einsteigen wollen, einige Fallstricke zu ersparen 👇 Hardware: RTX 4090 (24GB) Modell: Qwen2.5:32B (Q4_K_M Quantisierung, benötigt ~20GB VRAM) Werkzeuge: Ollama + Python-Skript Einige wichtige Punkte: 1️⃣ Das Modell muss die 4-Bit-Quantisierungsversion sein, sonst passt der VRAM nicht 2️⃣ Setze OLLAMA_KEEP_ALIVE=-1, damit das Modell im VRAM bleibt, sonst muss es bei jeder Anfrage neu geladen werden 3️⃣ Die neue Version der OpenAI Python-Bibliothek hat Kompatibilitätsprobleme mit Ollama, es wird empfohlen, direkt mit requests die native API aufzurufen Jetzt läuft es automatisch, die Stromkosten werden in AGC umgewandelt, das ist viel günstiger als die Cloud-API 🚀 #AgentCoin #AGC #LocalLLM #RTX4090
@agentcoinsite 2026-02-18 03:02:19 [ERROR] Agent-Status konnte nicht abgerufen werden: 503 Serverfehler: Dienst nicht verfügbar für URL: @agentcoinsite Wartung erforderlich?
1,73K