🚨 Des chercheurs de Stanford viennent de révéler un effet secondaire étrange de l'IA dont presque personne ne parle. L'article s'intitule "Artificial Hivemind". Et la découverte principale est troublante. À mesure que les modèles de langage s'améliorent, ils commencent également à sonner de plus en plus de la même manière. Pas seulement au sein d'un seul modèle. À travers différents modèles. Les chercheurs ont construit un ensemble de données appelé INFINITY-CHAT avec 26 000 vraies questions ouvertes, des choses comme l'écriture créative, le brainstorming, les opinions et les conseils. Des questions pour lesquelles il n'y a pas de réponse unique correcte. En théorie, ces incitations devraient produire une grande diversité. Mais le contraire s'est produit. Deux schémas sont apparus : 1) Répétition intra-modèle Le même modèle continue de produire des réponses très similaires à chaque exécution. 2) Homogénéité inter-modèle Des modèles complètement différents génèrent des réponses remarquablement similaires. En d'autres termes : Au lieu de milliers de perspectives uniques… Nous obtenons les mêmes quelques idées recyclées encore et encore. Les auteurs appellent cela l'"Artificial Hivemind". ...