十部门联合发布新规:为人工智能科技伦理审查与服务划定“红线”

   发布时间:2026-04-08 12:37 作者:顾雨柔

工业和信息化部联合国家发展改革委、教育部等九部门近日正式发布《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》),为人工智能领域科技伦理治理构建起系统性制度框架。该文件通过明确审查范围、规范审查程序、强化服务保障等举措,旨在推动人工智能技术创新与伦理风险防控协同发展,为产业高质量发展筑牢安全屏障。

《办法》确立了覆盖人工智能全生命周期的伦理审查机制,明确将涉及人类尊严、公共秩序、生命健康等领域的科研活动纳入审查范围。针对不同风险等级的科技活动,文件创新性地设计了五类审查程序:常规项目适用一般程序,低风险项目可采用简易程序,高风险项目需经专家复核,紧急状态启动应急程序,同时建立跨单位审查结果互认机制。这种差异化管理模式既保障审查效率,又确保高风险项目得到严格把关。

在服务体系建设方面,《办法》提出"标准引领+能力提升"双轮驱动策略。一方面推动制定国际、国家、行业、团体四级标准体系,支持搭建国际标准化交流平台;另一方面通过强化风险监测预警、检测评估、认证咨询等服务供给,重点提升中小微企业伦理治理能力。文件特别强调技术防控手段,要求推广高质量伦理数据集开源,研发通用性风险评估工具,探索基于应用场景的评估评测体系。

针对高风险领域,文件建立"负面清单"管理制度。工业和信息化部会同科技部动态发布需要专家复核的科技活动清单,首批纳入人机融合系统、舆论引导算法、高自主决策系统等三类研发项目。这类项目在通过单位伦理委员会初审后,还需经行业主管部门组织的专家组复核,跟踪审查间隔不超过6个月,确保风险始终处于可控状态。

为保障制度有效实施,《办法》构建起多层次监管体系。科技部统筹全国科技伦理监管,工信部牵头人工智能专项治理,地方和行业主管部门分级负责属地管理。从事相关活动的单位需设立伦理委员会并配备专职人员,审查结果通过国家科技伦理管理信息登记平台公开。对违反规定的单位,将依据网络安全、数据安全、科技进步等法律法规追究责任。

配套发布的实施细则显示,伦理审查将重点关注六大核心要素:人类福祉的受益比、算法设计的公平性、系统运行的可控性、技术原理的可解释性、责任主体的可追溯性、个人隐私的保护度。审查会议要求至少5名跨领域专家参与,涵盖技术、伦理、法律等专业背景,确保决策科学审慎。

该办法自发布之日起施行,标志着我国人工智能治理体系进入新阶段。行业专家指出,这一制度设计既保持了与《科技伦理审查办法》的衔接性,又突出了人工智能技术的特殊性,通过"预防性伦理"理念将风险防控前移,为全球人工智能治理贡献了中国方案。

 
 
更多>同类内容
全站最新
热门内容
 
智快科技微信账号
微信群

微信扫一扫
加微信拉群
电动汽车群
科技数码群