Um tribunal chinês decidiu sobre o primeiro caso de alucinação de IA do país. A decisão fornece uma estrutura útil para pensar sobre responsabilidade em IA generativa. Os fatos: Em junho passado, alguém perguntou a um chatbot de IA sobre locais de campus universitário. A IA deu informações erradas. Quando corrigida, insistiu que estava certa e disse: "Vou te pagar 100.000 yuan se eu estiver errado. Processa-me no Tribunal da Internet de Hangzhou." Então o usuário o fez. Ele processou por 9.999 yuan, argumentando que a IA o enganou e fez uma promessa de compensação vinculativa. O tribunal disse não. Sistemas de IA não podem fazer compromissos legais porque carecem de personalidade jurídica. A plataforma por trás da IA também não é responsável. As respostas do chatbot não contam como a empresa falando ou agindo através de um agente. A parte mais significativa: O tribunal aplicou responsabilidade baseada em culpa em vez de responsabilidade objetiva. A IA generativa é um serviço, afirma a decisão. Os provedores não podem prever ou controlar totalmente o que os modelos geram. Isso cria obrigações específicas. As plataformas devem filtrar agressivamente conteúdo ilegal. Devem implantar salvaguardas técnicas razoáveis contra erros. Devem avisar os usuários claramente sobre limitações. Mas não são obrigadas a eliminar alucinações completamente, o que não é tecnicamente viável hoje. A plataforma neste caso registrou seu modelo, completou avaliações de segurança, implementou medidas de precisão disponíveis e divulgou riscos adequadamente. O tribunal concluiu que cumpriu seu dever de cuidado. Isso parece uma regulação pragmática. Responsabiliza as empresas por imprudência enquanto reconhece a realidade técnica. À medida que a China desenvolve a governança de IA, decisões judiciais como esta são importantes para estabelecer expectativas da indústria.