Локальна модель вирішує проблему за 2,5 секунди (це вікно на 5 хвилин занадто довгий). Вікна у 5 хвилин більш ніж достатньо, і ви також берете такий дорогий API моделі для запуску в хмарі, щоб оплатити сервер, тож якщо ви можете розгорнути локально, можете розгорнути локально, а рахунок за електроенергію перевищує 100 на місяць, що дорівнює вашому щоденному використанню комп'ютера. @agentcoinsite
我叫美元
我叫美元18 лют. 2026 р.
Поділіться досвідом місцевого розгортання @agentcoinsite гірничої справи та порадуйте друзям, які хочуть сісти в машину, щоб уникнути пасток 👇 Апаратне забезпечення: RTX 4090 (24GB) Модель: Qwen2.5:32B (Q4_K_M квантування, займає ~20GB VRAM) Інструменти: Ollama + скрипти на Python Декілька ключових моментів: 1️⃣ Модель має бути обрана для 4-бітної кількісної версії, інакше вона не буде 2️збережена у відображенні ⃣ Set OLLAMA_KEEP_ALIVE=-1 для збереження моделі в пам'яті, інакше її доведеться завантажувати 3️щоразу при запиті ⃣. Нова версія бібліотеки OpenAI Python має проблеми сумісності з Ollama, тому рекомендується безпосередньо використовувати запити для налаштування нативного API Тепер він працює автоматично, а рахунок за електроенергію змінено на AGC, що набагато економічніше 🚀, ніж хмарний API #AgentCoin #AGC #LocalLLM #RTX4090
@agentcoinsite 2026-02-18 03:02:19 [ПОМИЛКА] Не вдалося отримати статус агента: 503 Серверна помилка: Сервіс недоступний для URL: @agentcoinsite Підтримувати його?
1,73K