🚨 スタンフォードの研究者たちは、ほとんど誰も話題にしないAIの奇妙な副作用を暴露しました。 その論文は「人工的ハイブマインド」と呼ばれています。そして、その核心的な発見は不安を掻き立てるものです。 言語モデルが進化するにつれて、聞こえ方もどんどん似通しになってきます。 単一のモデル内だけではありません。異なるモデル間で。 研究者たちは、創作、ブレインストーミング、意見、アドバイスなど、26,000件の本格的なオープンエンドの質問を集めたINFINITY-CHATTというデータセットを構築しました。正解が一つもない問題。 理論的には、これらのプロンプトは大きな多様性を生み出すはずです。 しかし、逆のことが起きた。 2つのパターンが現れた。 1) モデル内反復 同じモデルが、プレイごとに非常に似た答えを繰り返し出します。 2) モデル間同質性 まったく異なるモデルでも非常に似た反応が得られます。 言い換えれば: 何千もの異なる視点の代わりに... 同じアイデアが何度も繰り返されているのです。 著者たちはこれを「人工ハイブマインド」と呼んでいます。 ...