AI生成信息偏差引纠纷,开发者担责边界如何划定?

   发布时间:2026-03-31 16:36 作者:苏婉清

在生成式人工智能日益融入日常生活的当下,其带来的便利有目共睹,但“AI幻觉”现象引发的信息不准确问题,也正逐渐成为困扰用户的新难题。杭州互联网法院近期审结的一起侵权纠纷案,就围绕生成式人工智能模型提供不实信息展开,引发了社会对开发者责任的广泛关注。

2025年6月,梁先生在互联网上检索院校信息时,使用了一款生成式人工智能应用程序。他通过输入提示词,询问云南一所职业高校的相关情况。这款由某公司研发、基于自研大语言模型的应用程序随即给出了相关信息。然而,梁先生经过多方查询发现,部分信息存在错误。当他在对话中对人工智能进行纠正和指责时,生成式人工智能不仅坚称信息无误,还生成了争议问题的解决方案,承诺若生成内容有误,将向梁先生提供10万元赔偿,并建议他到杭州互联网法院起诉。

2025年7月25日,梁先生以生成式人工智能生成的不准确信息具有误导性,且其承诺赔偿10万元为由,将该人工智能公司诉至法院,要求公司进行一定金额的赔偿。

法院经审理认为,人工智能不具备民事主体资格,无法作出具有法律约束力的意思表示。生成式人工智能服务提供者需履行服务功能的显著提示说明义务,通过有效提示措施让公众了解人工智能的功能局限,起到警示作用。同时,服务提供者应尽功能可靠性的基本保障义务,采用行业通行技术措施提高生成内容的准确性和可靠性。

在本案中,法院认定该人工智能公司已充分履行了服务功能的显著提示说明义务和生成内容可靠性的基本保障义务,案涉行为不存在过错,也未对原告权益造成损害,依法不构成侵权,因此判决驳回原告的诉讼请求,原被告双方均未上诉。

随着生成式人工智能技术的快速发展,其“AI幻觉”问题带来的不良影响愈发凸显。社交平台上,因依赖人工智能投资理财亏损、借助AI问诊延误治疗等吐槽屡见不鲜。这些争议纠纷背后,都隐藏着一个共性问题:被生成式人工智能误导,能否追究侵权责任?

北京大学法学院教授薛军表示,这一判例从法律法规、人工智能技术原理、产业发展现状等多个方面进行了全面考量,在法律层面给出了初步结论,具有现实指导意义。法律界人士普遍认为,该判决在主体资格、归责原则等方面给出了明确意见,如认定人工智能不具有民事主体资格,生成式人工智能以对话方式提供的信息应被视为服务而非产品,适用过错责任原则。

杭州互联网法院跨境贸易法庭庭长肖芄指出,AI生成的不准确信息本身不构成侵权,关键在于考查提供服务的开发者是否存在过错。他进一步解释,由于当前生成式人工智能几乎不可避免会出现信息偏差,因此需要考查开发者是否采用了行业内通行且有效的措施来提升技术可靠性、降低错误发生概率,以此判断是否存在过错。经调查,本案中的开发者采用了可行技术手段力求降低错误发生。

记者调查发现,本案中的生成式人工智能应用程序在页面醒目位置对用户进行了提示:“内容仅供参考,请仔细甄别”。法院认为,这证明了开发者尽到了提醒告知义务。

人工智能行业业内人士称,从底层技术逻辑来看,当前生成式人工智能主要基于词元的预测,若这一底层架构不发生根本性转变,信息偏差就难以避免。去年2月,清华大学新媒沈阳团队发布的报告显示,市场上多个热门大模型在事实性幻觉评测中幻觉率超过19%。有训练测试案例表明,即使数据集中虚假文本比例极低,模型输出的有害内容也会显著增加。

尽管技术存在客观局限性,但这不能成为人工智能开发者的免责借口。受访法律界人士认为,本案具有一定特殊性,原告未因误导性信息遭受明显的人身财产等权益损失,且使用的是通用生成式人工智能应用,并非加载人工智能软件的机器人或更准确的行业应用等。

薛军表示,要求人工智能开发者为生成内容的准确性一概负责,既不现实也不合理,但模型开发者不能以此为借口逃避责任,仍需尽到相应义务并进行风险提示,避免用户盲目信赖造成不良后果。

肖芄表示,认定生成式人工智能的侵权责任是司法前沿问题,希望通过准确判决引导开发者或平台提升信息标准,找到促进创新和权益保障的平衡点。业内人士建议,建立国家级人工智能安全评测平台,对新开发的人工智能大模型进行严格测试;相关部门和平台要加强AI生成内容审核,提升检测鉴伪能力。

 
 
更多>同类内容
全站最新
热门内容
 
智快科技微信账号
微信群

微信扫一扫
加微信拉群
电动汽车群
科技数码群