Một tòa án Trung Quốc đã phán quyết trong vụ án ảo giác AI đầu tiên của đất nước. Quyết định này cung cấp khung pháp lý hữu ích để suy nghĩ về trách nhiệm trong AI sinh tạo. Sự việc: Vào tháng 6 năm ngoái, một người đã hỏi một chatbot AI về vị trí các khuôn viên đại học. AI đã cung cấp thông tin sai. Khi được sửa, nó khăng khăng rằng nó đúng và nói "Tôi sẽ trả bạn 100.000 nhân dân tệ nếu tôi sai. Hãy kiện tôi tại Tòa án Internet Hàng Châu." Vì vậy, người dùng đã làm vậy. Anh ta đã kiện với số tiền 9.999 nhân dân tệ, lập luận rằng AI đã lừa dối anh ta và đưa ra một lời hứa bồi thường có tính ràng buộc. Tòa án đã nói không. Các hệ thống AI không thể đưa ra cam kết pháp lý vì chúng thiếu tư cách pháp nhân. Nền tảng đứng sau AI cũng không chịu trách nhiệm. Các phản hồi của chatbot không được coi là công ty đang phát ngôn hoặc hành động thông qua một đại diện. Phần quan trọng hơn: Tòa án đã áp dụng trách nhiệm dựa trên lỗi thay vì trách nhiệm nghiêm ngặt. AI sinh tạo là một dịch vụ, phán quyết nêu rõ. Các nhà cung cấp không thể hoàn toàn dự đoán hoặc kiểm soát những gì các mô hình tạo ra. Điều này tạo ra các nghĩa vụ cụ thể. Các nền tảng phải lọc nội dung bất hợp pháp một cách quyết liệt. Họ phải triển khai các biện pháp bảo vệ kỹ thuật hợp lý chống lại lỗi. Họ phải cảnh báo người dùng rõ ràng về những hạn chế. Nhưng họ không bắt buộc phải loại bỏ hoàn toàn các ảo giác, điều này hiện tại không khả thi về mặt kỹ thuật. Nền tảng trong trường hợp này đã đăng ký mô hình của mình, hoàn thành các đánh giá an toàn, thực hiện các biện pháp chính xác có sẵn và tiết lộ rủi ro một cách hợp lý. Tòa án đã nhận thấy nó đã thực hiện nghĩa vụ chăm sóc của mình. Điều này trông giống như quy định thực dụng. Nó giữ cho các công ty chịu trách nhiệm về sự bất cẩn trong khi thừa nhận thực tế kỹ thuật. Khi Trung Quốc phát triển quản trị AI, các quyết định của tòa án như thế này có ý nghĩa trong việc thiết lập kỳ vọng của ngành.