🚨 Cercetătorii de la Stanford tocmai au expus un efect secundar ciudat al AI despre care aproape nimeni nu vorbește. Lucrarea se numește "Artificial Hive Mind". Iar descoperirea principală este tulburătoare. Pe măsură ce modelele de limbaj devin mai bune, ele încep să sune tot mai asemănător. Nu doar în cadrul unui singur model. De la diferite modele. Cercetătorii au construit un set de date numit INFINITY-CHAT, cu 26.000 de întrebări reale deschise, precum scriere creativă, brainstorming, opinii și sfaturi. Întrebări la care nu există un singur răspuns corect. Teoretic, aceste sugestii ar trebui să producă o diversitate uriașă. Dar s-a întâmplat opusul. Au apărut două tipare: 1) Repetiție intra-model Același model continuă să ofere răspunsuri foarte similare între sesiuni. 2) Omogenitate între modele Modele complet diferite generează reacții izbitor de similare. Cu alte cuvinte: În loc de mii de perspective unice... Primim aceleași câteva idei reciclate iar și iar. Autorii numesc acest fenomen "Mintea colectivă artificială". ...