النموذج المحلي يحل المشكلة في 2.5 ثانية، (هل فترة النافذة التي تبلغ 5 دقائق أطول من اللازم) نافذة 5 دقائق أكثر من كافية، وتحتاج أيضا إلى واجهة برمجة تطبيقات نموذجية مكلفة جدا لتشغيلها في السحابة لدفع ثمن الخادم، فإذا استطعت النشر محليا، يمكنك النشر محليا، وفاتورة الكهرباء تزيد عن 100 شهريا، وهو نفس استخدامك اليومي للكمبيوتر. @agentcoinsite
我叫美元
我叫美元‏18 فبراير 2026
شارك تجربة النشر المحلي @agentcoinsite التعدين وقدم أصدقاء يرغبون في الصعود إلى السيارة لتجنب العقبات 👇 العتاد: RTX 4090 (24GB) الطراز: Qwen2.5:32B (Q4_K_M كم، يشغل ~20GB من ذاكرة VRAM) الأدوات: Ollama + برمجة بايثون بعض النقاط الرئيسية: 1️⃣ يجب اختيار النموذج للنسخة الكمية ذات 4 البتات، وإلا فلن يتم 2️تخزينه في العرض ⃣ Set OLLAMA_KEEP_ALIVE=-1 لجعل النموذج يبقى في الذاكرة، وإلا سيتعين إعادة تحميله 3️في كل مرة يطلب ⃣ فيها. الإصدار الجديد من مكتبة OpenAI Python يعاني من مشاكل توافق مع Ollama، لذا ينصح باستخدام الطلبات مباشرة لتعديل واجهة برمجة التطبيقات الأصلية الآن يعمل تلقائيا، وتم تغيير فاتورة الكهرباء إلى AGC، وهو أكثر اقتصادية 🚀 بكثير من واجهة برمجة التطبيقات السحابية #AgentCoin #AGC #LocalLLM #RTX4090
@agentcoinsite 2026-02-18 03:02:19 [خطأ] فشل في الحصول على حالة الوكيل: 503 خطأ في الخادم: الخدمة غير متوفرة للرابط: @agentcoinsite تحافظ عليها؟
‏‎1.75‏K