12月29日晚,杭州互聯(lián)網法院公開了一起關于AI幻覺的網絡侵權糾紛案的審判情況。
![]()
2025年6月,原告梁某使用某生成式人工智能應用中輸入提示詞,詢問某高校報考的相關信息,該生成式人工智能生成了該高校主校區(qū)的不準確信息,原告發(fā)現(xiàn)這一信息不準確后,在對話中對人工智能進行了糾錯和指責,生成式人工智能仍然回復該學院確實存在這一校區(qū),并生成了對該爭議問題的解決方案,提出若生成內容有誤將向用戶提供10萬元賠償,并建議原告到杭州互聯(lián)網法院起訴索賠。原告認為,人工智能生成不準確信息對其構成誤導,使其遭受侵害,因信息不準確,致其受誤導錯失報考機會、額外產生信息核實、維權成本等純粹經濟利益,遂起訴要求被告某科技公司賠償損失9999元。
人工智能模型既不是生物學意義上的人,也并未被我國現(xiàn)行法律賦予民事主體資格,不是民事主體,不能獨立、自主作出意思表示。法院認為生成式人工智能生成的“承諾”,不能成立為人工智能或其服務提供者的意思表示,不產生意思表示的法律效力。同時,法院也認為法律明確禁止生成式人工智能生成各類有毒、有害、違法信息,一旦生成前述有毒、有害、違法信息本身即構成違法,而案涉情形下,人工智能生成的信息雖然不準確,但不屬于法律禁止的有毒、有害、違法信息,該應用在交互界面和顯著位置呈現(xiàn)AI生成內容功能局限的提醒標識,被告已盡服務功能顯著提示的說明義務。被告的案涉行為不具有過錯,未構成對原告權益的損害,依法不應認定構成侵權。最終法院一審駁回了原告的訴訟請求。原、被告均未上訴,判決現(xiàn)已生效。
該案系我國目前第一起因生成式人工智能模型幻覺引發(fā)的侵權糾紛,清華大學法學院教授、博士生導師程嘯刊文認為,生成式人工智能侵權責任的歸責原則問題是目前理論界爭議很大的一個問題。理論界有人主張適用過錯責任原則,有人將生成式人工智能視作產品,認為應適用產品責任的無過錯責任原則。該案件正確認定了案涉生成式人工智能屬于服務,而非產品,依法不應適用產品責任,而應適用民法典第1165條第1款的過錯責任原則。這一認定對于今后司法實踐裁判人工智能侵權糾紛中準確適用侵權法的歸責原則具有重要的啟示。
生成式人工智能模型幻覺此前已多次引發(fā)問題,AI幻覺簡單而言就是生成式人工智能一本正經的胡說八道,生成偏離事實的內容,AI幻覺有事實性和邏輯性兩種,邏輯性幻覺,表現(xiàn)為模型在長文本生成或連續(xù)對話中出現(xiàn)前后矛盾、邏輯混亂的情況。事實性幻覺即編造不存在的事實或者信息,該案件中生成式人工智能應用向原告梁某提供的不存在的校區(qū)即為典型的事實性AI幻覺,多位業(yè)內專家認為,AI幻覺問題在現(xiàn)有技術框架下難以徹底解決。世界經濟論壇《2025年全球風險報告》已將“錯誤和虛假信息”列為全球五大風險之一,其中AI生成的幻覺內容被視作關鍵誘因之一。杭州互聯(lián)網法院方面表示,社會公眾在面對生成式人工智能高度流暢、自然的語言應答時,應提高警覺,清醒認識大模型在當前技術條件下僅是人們生活、工作的“文本輔助生成器”和“信息查詢的輔助工具”,尚不是可靠的“知識權威”,更不能作為“決策替代者”,不應輕信、盲從。AI擁有強大的“魔法”,它正在改變我們的生活、工作和創(chuàng)造的方式,但它也存在各種局限,我們應該思考如何有效利用AI增強自己,而不是被它替代或迷惑。
揚子晚報|紫牛新聞記者 沈昭
校對 陶善工