トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
建物@EurekaLabsAI。以前は AI のディレクター @ テスラ、創設チーム @ OpenAI、CS231n/PhD @ スタンフォード大学。私は大きなディープニューラルネットを訓練するのが好きです。
私も同じことを考えていたので、nanochatで試しています。例えば、こちらは8人のエージェント(4人のClaude、4つのコデックス)で、それぞれ1つのGPUがnanochat実験を実行しています(logitソフトキャップを削除しようと回帰せずに)。要約すると、うまくいかず、めちゃくちゃです...それでも見ていてとても美しい:)
いくつかの構成を試しました:8人の独立した単独研究者、1人の主任科学者が8人のジュニア研究者に仕事を割り当てる、などです。各研究プログラムはgitブランチで、各科学者はそれをフィーチャーブランチにフォークし、孤立にはgit worktree、通信にはシンプルなファイル、現時点ではDockerやVMはシンプルに使っています(指示だけで干渉を防ぐのに十分だと感じています)。研究組織は、Teamsのようなインタラクティブなセッションのtmuxウィンドウグリッドで運営されており、見やすく、個々の作業が見やすく、必要に応じて「引き継ぐ」ことができるので、-pは使いません。
でも、今のところうまくいかない理由は、エージェントのアイデアが最初からかなり悪いからです。たとえ最高知能でも。実験設計を慎重に考えず、少し意味不明なバリエーションを使い、強い基準を作らず適切にアブレートし、ランタイムや失敗の管理もしっかりしません。(例えば、昨日あるエージェントがネットワークの隠れサイズを大きくすると検証損失が改善することを「発見」しましたが、これは全くの誤りです。なぜなら、無限のデータ領域では大きなネットワークほど検証損失が小さくなる一方で、その場合は訓練時間が長くなるからです。なぜ私がそれを指摘しに来たのかはよくわかりません。)彼らは、よくスコープ化され説明されたアイデアを実装するのが非常に得意ですが、創造的に生み出すわけではありません。
しかし目標は、組織(例:「研究機関」)とその個々のエージェントをプログラミングしていることであり、「ソースコード」とは、それを構成するプロンプト、スキル、ツール、プロセスの集合体です。例えば、朝の毎日のスタンドアップは今や「組織コード」の一部になっています。そして、nanochatの事前学習の最適化は多くのタスクの一つに過ぎません(ほぼ評価のようなものです)。そして、任意のタスクが与えられたとき、あなたの研究機関はどれくらいの速さで進捗を生み出しますか?

Thomas Wolf2026年2月28日
なぜNanoGPTのスピードランチャレンジは、今までに完全にAIが自動化されていないのでしょうか?
722
トークン需要の津波が迫る中、LLMの基盤となるメモリ+計算を*ちょうど良い*オーケストレーションにする大きなチャンスがあります。
根本的で明白でない制約は、チップ製造プロセスのため、物理的な実装も異なる2つの全く異なるメモリプールが存在することです。1) 計算ユニットのすぐ隣にあるオンチップSRAMは非常に高速ですが容量は非常に小さい、2) オフチップのDRAMは非常に大容量です。 しかし、その中身は長いストローでしか吸い取れません。さらに、アーキテクチャの詳細(例:シストリックアレイ)、数値解析なども多数あります。
最適な物理基盤の設計と、LLMのトップボリュームワークフロー(推論プリフィル/デコード、トレーニング/ファインチューニングなど)を最適なスループット/レイテンシー/コストで調整することは、今日最も興味深い知的パズルであり、最も高い報酬(NVDAの4.6Tを引用)と言えるでしょう。すべては多くのトークンを手に入れるために、速く安く手に入れるためです。おそらく最も重要なワークフロー(推論、デコード、そして密閉されたエージェントループでの長いトークンコンテキストでの*および*)は、今日存在するもの(HBMファーストのNVIDIAとSRAMファーストのCerebras)の両方が同時に達成するのが最も難しいものです。とにかく、MatXチームはA++グレードなので、少し関わることができて光栄ですし、昇給おめでとうございます!

Reiner Pope2026年2月25日
私たちは、他のどのチップよりもはるかに高いスループットを提供しつつ、最小のレイテンシを実現したLLMチップを作っています。私たちはこれをMatX Oneと呼んでいます。
MatX Oneチップは分割可能なシストリックアレイをベースにしており、大型シストリックアレイが知られるエネルギー効率と面積効率を持ちつつ、柔軟な形状を持つ小型行列でも高い利用率を発揮します。このチップは、SRAMファースト設計の低遅延とHBMの長コンテキストサポートを組み合わせています。これらの要素に加え、数値計算の新たなアプローチにより、発表されたどのシステムよりも高いスループットを実現しつつ、同時にSRAMファースト設計のレイテンシーに匹敵します。高いスループットと低いレイテンシーは、サブスクリプション費用に対してよりスマートで高速なモデルを提供します。
開発を終え、製造を迅速に拡大するために5億ドルのシリーズB資金を調達し、1年以内にテープアウトを達成しました。このラウンドは、ウォール街で最もテクノロジーに精通した企業の一つであるジェーン・ストリートと、AGIに関する決定的なメモを書いた創設者のシチュエーショナル・アウェアネスLP@leopoldasch主導しました。参加者には@sparkcapital、@danielgross、@natfriedman基金、@patrickc・@collision、@TriatomicCap、@HarpoonVentures、@karpathy、@dwarkesh_spなどが含まれます。また、マーベルやアルチップを含むサプライチェーン全体での投資家も歓迎しています。
@MikeGunter_と私は、LLMに最適なチップは、LLMに必要なものや進化の過程を深く理解した基礎から設計すべきだと感じたため、MatXを立ち上げました。私たちは、小型モデルの性能、低ボリュームのワークロード、さらにはプログラミングの容易ささえも諦めて、そのようなチップで実現する覚悟があります。
今では100人のチームで、学習率スケジュールからスイング・モジュロ・スケジューリング、ガード・ラウンド・スティッキー・ビッツ、ブラインドメイト接続まで、あらゆることを考えるメンバーが同じ建物に集まっています。もし私たちが多世代のチップを大量に設計・設計・展開するのを手伝いたいなら、ぜひご参加ください。
246
CLIが非常に魅力的なのは、まさに「レガシー」技術であるためで、AIエージェントがネイティブかつ簡単にそれらを使い、組み合わせ、端末ツールキット全体を通じて操作できるからです。
例えば、ClaudeやCodexのエージェントに新しいPolymarketのCLIをインストールしてもらい、任意のダッシュボードやインターフェース、ロジックを依頼するなどです。エージェントがビルドしてくれます。GithubのCLIもインストールすれば、リポジトリ内のナビゲーションや課題、PR、議論、さらにはコード自体を見るよう依頼できます。
例:Claudeは、最も取引量の高いポリマーケットと24時間の変更を3~分でこのターミナルダッシュボードを構築しました。あるいはウェブアプリなどにすることもできます。さらに大きなパイプラインのモジュールとして使うとさらに強力になります。
もし何か商品やサービスを持っているなら、考えてみてください:エージェントはそれらにアクセスして利用できるのでしょうか?
- あなたのレガシードキュメント(人間向け)は少なくともMarkdownでエクスポートできますか?
- あなたの製品のためにスキルを書いたことがありますか?
- あなたの製品やサービスはCLIを通じて利用可能か?それともMCPですか?
- ...
2026年です。建設。フォー。エージェントたち。


Suhail Kakar2026年2月24日
Polymarket CLIの導入 - AIエージェントが予測市場にアクセスする最速の方法
錆で作られた。エージェントはマーケットにクエリを送り、取引を行い、データを取得できます — すべて端末からです
高速で軽量、経費ゼロ
188
トップ
ランキング
お気に入り
