Überraschung, Überraschung, Halluzinationen entstehen, weil sie eigentlich keine KI sind, sondern nur ein großes maschinelles Lernmodell. Manchmal frage ich mich, warum das Forschung braucht, es sei denn, es bietet Möglichkeiten, es zu verbessern. Ich habe eine Arbeit in meinem Masterstudium geschrieben, die Mechanical Turk verwendet hat, um Fragen zu beantworten. Es stellt sich heraus, dass Menschen gut darin sind, Anweisungen nicht zu befolgen und Erwartungen als Ganzes falsch zu machen.
机器之心 JIQIZHIXIN
机器之心 JIQIZHIXIN6. Sept., 12:51
OpenAI hat gerade behauptet, den Schuldigen hinter den AI-Halluzinationen gefunden zu haben.
1,3K