ローカルモデルは2.5秒で問題を解決します(5分のウィンドウ期間が長すぎます)。5分のウィンドウは十分すぎるほどですし、サーバーの費用を賄うためにクラウド上で高価なモデルAPIを使うため、ローカルにデプロイできるならローカルで展開できます。電気代は月100以上で、これはパソコンの日常使用量と同じです。 @agentcoinsite
我叫美元
我叫美元2026年2月18日
地元での採掘@agentcoinsite展開の経験を共有し、車に乗りたい友人たちに落と👇し穴を避けるために伝えましょう ハードウェア:RTX 4090(24GB) モデル:Qwen 2.5:32B(量子化Q4_K_M、VRAMを約20GB占有) ツール:Ollama + Pythonスクリプト いくつかの重要なポイント:1️^ モデルは4ビット定量版を選択しなければならず、そうでなければ2️表示 ⃣セットに保存されません。Set OLLAMA_KEEP_ALIVE=-1でモデルがメモリに永続化されず、そうでなければリクエストされるたびに再読み込み3️が必要です。 ⃣ OpenAIのPythonライブラリの新バージョンはOllamaとの互換性に問題があるため、ネイティブAPIを調整するために直接リクエストを使うことが推奨されます 現在は自動で動作し、電気料金もAGCに変更されます。これはクラウドAPIよりもはるかに経済的🚀です #AgentCoin #AGC #LocalLLM #RTX4090
@agentcoinsite 2026-02-18 03:02:19 [エラー] エージェントステータス取得に失敗:503 サーバーエラー:URLのサービス利用不可: @agentcoinsite 維持する?
1.75K