El modelo local resolvió el problema en 2.5 segundos, (¿no es un poco largo un período de 5 minutos para una pregunta?) Un período de 5 minutos por pregunta es más que suficiente, y ustedes todavía están utilizando un modelo API en la nube tan caro y pagando los costos del servidor, así que si se puede desplegar localmente, mejor. El costo de la electricidad se calcula en más de 100 al mes, es como usar tu computadora diariamente.
我叫美元
我叫美元18 feb 2026
Comparte un poco de experiencia sobre la minería con @agentcoinsite en local, para que los amigos que quieran subirse al tren eviten caer en trampas 👇 Hardware: RTX 4090 (24GB) Modelo: Qwen2.5:32B (cuantización Q4_K_M, ocupa ~20GB de VRAM) Herramientas: Ollama + script de Python Algunos puntos clave: 1️⃣ El modelo debe ser la versión cuantizada de 4 bits, de lo contrario no cabrá en la VRAM 2️⃣ Configura OLLAMA_KEEP_ALIVE=-1 para que el modelo permanezca en la VRAM, de lo contrario cada solicitud tendrá que recargarse 3️⃣ La nueva versión de la biblioteca de Python de OpenAI tiene problemas de compatibilidad con Ollama, se recomienda usar directamente requests para llamar a la API nativa Ahora está funcionando automáticamente, el costo de la electricidad se cambia por AGC, es mucho más barato que la API en la nube 🚀 #AgentCoin #AGC #LocalLLM #RTX4090
@agentcoinsite 2026-02-18 03:02:19 [ERROR] Fallo al obtener el estado de Agent: 503 Error de Servidor: Servicio No Disponible para la URL: @agentcoinsite ¿Podrías hacer mantenimiento?
1,77K