M5 Maxは3,500ドルの玩具です ローカルAIにとって重要なのはトークン/秒数だけです LLM推論で実際に重要なこと(順に): メモリ帯域幅→TOK/sを決定する VRAM/ユニファイドメモリ→モデルサイズを決定します 計算→推論にはほとんど重要ではありません 70Bで毎秒25トークンはすごく印象的ですが、エージェントAIが壊れていないと100+必要だと気づくと M5は素晴らしいノートパソコンですが、サーバー用ではありません