Cuando almacena sus conocimientos y habilidades como curvas paramétricas (como lo hacen todos los modelos de aprendizaje profundo), la única forma en que puede generalizar es a través de la interpolación en la curva. El problema es que los puntos interpolados *se correlacionan* con la verdad pero no tienen un vínculo *causal* con la verdad. De ahí las alucinaciones. La solución es comenzar a aprovechar los gráficos simbólicos causales como sustrato de representación (por ejemplo, programas informáticos del tipo que escribimos como ingenieros de software). La pila de software escrito por humanos, con su grado extremadamente alto de confiabilidad a pesar de su enorme complejidad, es una prueba de la existencia de una propagación de la veracidad exacta.
80.69K