Cuando almacenas tu conocimiento y habilidades como curvas paramétricas (como lo hacen todos los modelos de aprendizaje profundo), la única forma en que puedes generalizar es a través de la interpolación en la curva. El problema es que los puntos interpolados *correlacionan* con la verdad pero no tienen un vínculo *causal* con la verdad. De ahí las alucinaciones. La solución es comenzar a aprovechar gráficos simbólicos causales como tu sustrato de representación (por ejemplo, programas informáticos del tipo que escribimos como ingenieros de software). La pila de software escrita por humanos, con su extremadamente alto grado de fiabilidad a pesar de su enorme complejidad, es prueba de la existencia de una propagación exacta de veracidad.
94,15K