工业和信息化部联合九个部门共同发布了《人工智能科技伦理审查与服务办法(试行)》,旨在通过技术创新强化人工智能伦理风险的防范能力。该办法提出,将重点支持伦理审查技术的研发与应用,推动以技术手段构建人工智能发展的安全屏障。
根据办法规定,人工智能伦理审查需围绕人类福祉、公平公正、可控可信三大核心展开。具体审查内容包括:训练数据采集标准的科学性,算法模型设计的合理性;是否建立防止算法歧视、数据压榨的机制,确保资源分配与决策过程的透明度;是否向公众充分披露技术用途、运行逻辑及潜在风险等信息。这些要求旨在构建覆盖人工智能全生命周期的伦理监管体系。
为提升审查效能,办法明确提出要推动高质量伦理审查数据集的开源共享,加快研发通用型风险评估工具。通过建立基于应用场景的伦理评测机制,对人工智能产品和服务进行分级分类管理。同时强调保护伦理审查相关技术的知识产权,鼓励企业开发符合伦理标准的智能应用。
该办法的出台标志着我国人工智能治理体系进一步完善,通过建立事前审查与过程监管相结合的机制,既保障技术创新活力,又防范技术滥用风险。相关部门将配套制定实施细则,推动伦理审查要求转化为可操作的技术标准,为人工智能健康发展提供制度保障。



