🚨 Stanford-Forscher haben gerade einen seltsamen Nebeneffekt von AI aufgedeckt, über den fast niemand spricht. Das Papier heißt „Künstliche Hivemind“. Und die zentrale Erkenntnis ist beunruhigend. Während Sprachmodelle besser werden, beginnen sie auch, immer ähnlicher zu klingen. Nicht nur innerhalb eines einzelnen Modells. Über verschiedene Modelle hinweg. Die Forscher haben einen Datensatz namens INFINITY-CHAT mit 26.000 echten offenen Fragen erstellt, Dinge wie kreatives Schreiben, Brainstorming, Meinungen und Ratschläge. Fragen, bei denen es keine einzige richtige Antwort gibt. Theoretisch sollten diese Eingaben eine große Vielfalt erzeugen. Aber das Gegenteil ist passiert. Zwei Muster traten auf: 1) Intra-Modell-Wiederholung Das gleiche Modell produziert über verschiedene Durchläufe hinweg sehr ähnliche Antworten. 2) Inter-Modell-Homogenität Völlig unterschiedliche Modelle erzeugen auffallend ähnliche Antworten. Mit anderen Worten: Statt tausender einzigartiger Perspektiven… Bekommen wir immer wieder die gleichen wenigen Ideen wiederverwertet. Die Autoren nennen dies das „Künstliche Hivemind“. ...