En kinesisk domstol avgjorde landets første sak om AI-hallusinasjoner. Avgjørelsen gir et nyttig rammeverk for å tenke på ansvar i generativ AI. Fakta: I juni i fjor spurte noen en AI-chatbot om plasseringer av universitetscampuser. AI-en ga feil informasjon. Da det ble rettet, insisterte den på at det var riktig og sa: «Jeg betaler deg 100 000 yuan hvis jeg tar feil. Saksøk meg i Hangzhou Internet Court." Så brukeren gjorde det. Han saksøkte for 9 999 yuan, og argumenterte med at AI-en hadde villedet ham og gitt et bindende kompensasjonsløfte. Retten sa nei. KI-systemer kan ikke inngå juridiske forpliktelser fordi de mangler juridisk personstatus. Plattformen bak AI-en er heller ikke ansvarlig. Chatbotens svar teller ikke som at selskapet snakker eller handler gjennom en agent. Den mer betydningsfulle delen: Retten anvendte skyldbasert ansvar i stedet for objektivt ansvar. Generativ AI er en tjeneste, sier dommen. Leverandører kan ikke fullt ut forutse eller kontrollere hvilke modeller som genereres. Dette skaper spesifikke forpliktelser. Plattformene må aggressivt filtrere ulovlig innhold. De må iverksette rimelige tekniske sikkerhetstiltak mot feil. De må advare brukerne tydelig om begrensninger. Men de er ikke pålagt å eliminere hallusinasjoner helt, noe som ikke er teknisk mulig i dag. Plattformen hadde i dette tilfellet registrert sin modell, gjennomført sikkerhetsevalueringer, implementert tilgjengelige nøyaktighetsmålinger og rapportert risiko korrekt. Retten fant at den oppfylte sin omsorgsplikt. Dette ser ut som pragmatisk regulering. Den holder selskaper ansvarlige for hensynsløshet samtidig som den anerkjenner den tekniske realiteten. Etter hvert som Kina utvikler AI-styring, har slike rettsavgjørelser betydning for å fastsette bransjens forventninger.