你被AI误导过吗?AI一本正经地“胡说八道”后承诺判断出错就会给用户补偿,这笔钱能找平台要吗?
今年1月,杭州互联网法院审结了全国首例因生成式人工智能模型“幻觉”引发的侵权纠纷案,解答了上述疑问——AI不具有民事主体资格,AI的赔偿“承诺”不产生意思表示的法律效力。
2025年6月,梁某在某科技公司开发的生成式AI查询高校报考信息时,发现该AI输出某校区的不实内容,纠正指责后,AI仍坚称信息属实,还承诺若有误赔偿10万元。梁某提供高校官网招生信息佐证后,AI承认内容失实,建议其向杭州互联网法院起诉索赔。
杭州互联网法院认为,人工智能不具有民事主体资格,不能作出意思表示。案涉AI自行生成的“赔偿承诺”亦不能视为服务提供者(被告)的意思表示,理由在于:第一,人工智能不具有民事主体资格,不能作为意思表示的传达人、代理人或代表人;第二,被告并无通过该AI模型这一工具来设定或传达其意思表示的行为;第三,一般的社会观念、交易习惯等尚不足以使原告对该随机生成的“承诺”产生合理信赖;第四,无证据表明被告曾作出愿受人工智能生成内容约束的外在表示。因此,该“承诺”不产生意思表示的法律效力。
在侵权责任方面,杭州互联网法院认为生成式AI属于服务,而非产品,依法不应适用产品责任。生成式AI生成的信息内容本身亦不适用产品责任。
从损害方面看,梁某主张受到的侵害是因信息不准确,导致其受误导错失报考机会、额外产生信息核实、维权成本等纯粹经济利益,而非人格权、物权等绝对权被侵害。进一步来看,法院认为案涉AI生成的不准确信息并未实质性地介入或影响原告的报考决策过程,二者不存在因果关系。
综上所述,上述科技公司的案涉行为不具有过错,未构成对梁某权益的损害,依法不应认定构成侵权。法院驳回了梁某的诉讼请求。双方均未上诉,判决现已生效。
值得注意的是,此案也清晰划下了AI运营商的责任边界,即“有没有过错”。如果平台已在界面提醒“AI生成内容仅供参考”,采取了必要措施提高生成内容的准确性,已经尽到了合理的注意义务,没有过错。
这起案件同样给广大用户提了个醒:AI不能成为用户转嫁责任的“避风港”。在享受生成式AI带来的便利时,不能对其输出的内容全盘采信。面对升学报考、投资理财、法律维权这类关乎重大利益的信息,用户更要主动核验信息来源,通过官网、权威机构等渠道交叉印证。毕竟,AI生成内容存在“幻觉”风险是客观事实,将被误导的所有责任一股脑推给平台,事实上难以获得法律支持。
来源:中国银行保险报
作者:杜肖锦
编辑:吴芳
时刻新闻