Quando você armazena seus conhecimentos e habilidades como curvas paramétricas (como todos os modelos de aprendizado profundo fazem), a única maneira de generalizar é por meio da interpolação na curva. O problema é que os pontos interpolados *se correlacionam* com a verdade, mas não têm ligação *causal* com a verdade. Daí as alucinações. A solução é começar a alavancar gráficos simbólicos causais como seu substrato de representação (por exemplo, programas de computador do tipo que escrevemos como engenheiros de software). A pilha de software escrita por humanos, com seu grau extremamente alto de confiabilidade, apesar de sua enorme complexidade, é a prova da existência da propagação exata da veracidade.
80,7K