Wenn Sie Ihr Wissen und Ihre Fähigkeiten als parametrische Kurven speichern (wie es alle Deep-Learning-Modelle tun), ist der einzige Weg, wie Sie verallgemeinern können, die Interpolation auf der Kurve. Das Problem ist, dass interpolierte Punkte *korrelieren* mit der Wahrheit, aber keinen *kausalen* Zusammenhang zur Wahrheit haben. Daher Halluzinationen. Die Lösung besteht darin, kausale symbolische Graphen als Ihre Repräsentationssubstrate zu nutzen (z. B. Computerprogramme der Art, die wir als Software-Ingenieure schreiben). Der von Menschen geschriebene Software-Stack, mit seinem extrem hohen Grad an Zuverlässigkeit trotz seiner massiven Komplexität, ist der Beweis für die Existenz einer genauen Wahrheitspropagation.
94,16K