Comparte un poco de experiencia sobre la minería con @agentcoinsite en local, para que los amigos que quieran subirse al tren eviten caer en trampas 👇 Hardware: RTX 4090 (24GB) Modelo: Qwen2.5:32B (cuantización Q4_K_M, ocupa ~20GB de VRAM) Herramientas: Ollama + script de Python Algunos puntos clave: 1️⃣ El modelo debe ser la versión cuantizada de 4 bits, de lo contrario no cabrá en la VRAM 2️⃣ Configura OLLAMA_KEEP_ALIVE=-1 para que el modelo permanezca en la VRAM, de lo contrario cada solicitud tendrá que recargarse 3️⃣ La nueva versión de la biblioteca de Python de OpenAI tiene problemas de compatibilidad con Ollama, se recomienda usar directamente requests para llamar a la API nativa Ahora está funcionando automáticamente, el costo de la electricidad se cambia por AGC, es mucho más barato que la API en la nube 🚀 #AgentCoin #AGC #LocalLLM #RTX4090