Lokalny model rozwiązał zadanie w 2,5 sekundy, (czy 5 minut na zadanie to nieco za długo?) 5 minut na zadanie to zdecydowanie wystarczająco dużo czasu, a wy nadal korzystacie z tak drogiego modelu API w chmurze i płacicie za serwery, więc jeśli można wdrożyć lokalnie, to wdrażajcie lokalnie, rachunki za prąd wynoszą około 100 zł miesięcznie, co jest porównywalne z codziennym używaniem komputera. @agentcoinsite
我叫美元
我叫美元18 lut 2026
Podziel się doświadczeniem z lokalnego wdrożenia @agentcoinsite do kopania, aby pomóc przyjaciołom, którzy chcą spróbować, uniknąć pułapek 👇 Sprzęt: RTX 4090 (24GB) Model: Qwen2.5:32B (kwantyzacja Q4_K_M, zajmuje ~20GB pamięci VRAM) Narzędzia: Ollama + skrypt Python Kilka kluczowych punktów: 1️⃣ Model musi być wybrany w wersji 4bit, inaczej pamięć VRAM się nie zmieści 2️⃣ Ustaw OLLAMA_KEEP_ALIVE=-1, aby model pozostał w pamięci VRAM, w przeciwnym razie za każdym razem, gdy wysyłasz zapytanie, musisz go ponownie ładować 3️⃣ Nowa wersja biblioteki OpenAI Python ma problemy z kompatybilnością z Ollama, zaleca się bezpośrednie użycie requests do wywołania natywnego API Teraz działa automatycznie, rachunki za prąd wymieniam na AGC, co jest znacznie tańsze niż API w chmurze 🚀 #AgentCoin #AGC #LocalLLM #RTX4090
@agentcoinsite 2026-02-18 03:02:19 [ERROR] Nie można uzyskać statusu Agenta: 503 Błąd serwera: Usługa niedostępna dla adresu URL: @agentcoinsite Czy możesz to naprawić?
1,76K