أشك أننا شهدنا تضخم سريع في خصوصية بنى وكلاء الذكاء الاصطناعي حتى الآن، لذا قلدت $moltg هنا ب 37 ألف MC @moltghost. "بنية عملاء الذكاء الاصطناعي الخاصة حيث يعمل كل وكيل على وحدة معالجة رسومات معزولة خاصة به." ليست واجهات برمجة تطبيقات مشتركة. وليس نماذج اللغة السحابية. 1 وكيل = 1 جهاز مخصص = 1 وحدة معالجة رسومات = عزل كامل. حاليا، معظم وكلاء الذكاء الاصطناعي يعملون على بنية تحتية مشتركة: - واجهة برمجة تطبيقات OpenAI (التوجيهات التي تصل إلى خوادمهم) - واجهة برمجة التطبيقات البشرية (عمليات كلود على وحدات معالجة الرسوميات الخاصة بهم) - منصات متعددة المستأجرين (وكيلك يشارك الحوسبة مع الآخرين) MoltGhost: يحصل وكيلك على آلة افتراضية خاصة به مع وحدة معالجة رسومات NVIDIA مخصصة، ويشغل النماذج المحلية (Llama، Mistral، Qwen) عبر Ollama، ينفذ عبر إطار عمل OpenClaw، يخزن كل شيء محليا، ويتصل عبر Cloudflare Tunnel (بدون منافذ مكشوفة). لماذا هذه مشكلة حقيقية بالفعل: - سامسونج (2023): قام المهندسون بتسريب شفرة مصدر لأشباه الموصلات عبر ChatGPT. لست مقلدا. التشغيل الطبيعي للخدمة المشتركة. - OpenAI (2023): مفاتيح واجهة برمجة التطبيقات المكشوفة من أخطاء Redis + سجلات الدردشة بين المستخدمين. - GitHub Copilot (2023): تسربت أجزاء من مستودعات خاصة عبر التعليمات. هذه ليست حالات استثنائية. هذه نتائج متوقعة لتوجيه البيانات الحساسة عبر البنية التحتية المشتركة. Agent Pod = آلة افتراضية مخصصة يعمل كل وكيل على جهازه الافتراضي الخاص. ليس حاوية. ليست عملية. عزل كامل على مستوى الآلة. ما الذي يوجد داخل كل كبسولة: - وحدة معالجة رسومات NVIDIA (A30/A40/A100/H100/H200 حسب حجم الطراز) - وقت تشغيل الوكيل (إطار عمل OpenClaw) مدة تشغيل النموذج (Ollama لاستنتاج نماذج اللغة اللغوية المحلية) - التخزين (قرص دائم لأوزان النماذج + بيانات الوكيل) - الشبكات (نفق كلاودفلير، بدون منافذ مكشوفة)...