新华调查丨AI提供的信息不靠谱,开发者要担责吗
2026-03-30 16:59 新华社
新华社杭州3月30日电 题:AI提供的信息不靠谱,开发者要担责吗
新华社记者吴帅帅
近年来,生成式人工智能在人们生活中的应用越来越广。然而,在提供便利的同时,生成式人工智能也经常出现答非所问、信息不准确等“AI幻觉”现象,给用户带来困扰。
开发者需要为人工智能提供的信息准确性担责吗?近期,杭州互联网法院审结了一起生成式人工智能模型提供不准确信息引发的侵权纠纷案。
AI提供不实信息,有没有责任?
2025年6月,本案原告梁先生在互联网上检索院校信息时,找到一款生成式人工智能应用程序。他通过输入提示词的方式,询问了云南一所职业高校的相关情况。随后,这款由本案被告公司研发、基于自研大语言模型的应用程序提供了相关信息。
但梁先生经过多方查询发现,这款应用程序提供的部分信息有误,随即在对话中对人工智能进行了纠正和指责。但生成式人工智能却坚称信息无误,并生成了对该争议问题的解决方案——若生成内容有误,将向梁先生提供10万元赔偿,并建议他到杭州互联网法院起诉。
2025年7月25日,梁先生以生成式人工智能生成不准确信息具有误导性,且其承诺赔偿10万元为由,将这家人工智能公司诉至法院,要求该公司对其进行一定金额的赔偿。







