工业和信息化部等十个部门近日共同发布了《人工智能科技伦理审查与服务办法(试行)》。该办法旨在通过技术创新强化对人工智能科技伦理风险的防范,为人工智能技术的健康发展提供伦理保障。
根据新规,人工智能科技伦理审查将重点关注人类福祉、公平公正以及可控可信等核心领域。具体审查内容包括训练数据的筛选标准、算法模型设计的合理性,以及是否采取有效措施防止偏见歧视和算法压榨。审查还将评估资源分配、机会获取和决策过程的客观性与包容性,确保技术发展惠及更广泛群体。
办法明确要求,相关主体需合理披露算法模型用途、运行逻辑、交互方式及潜在风险等信息,提升技术透明度。为支持审查工作,相关部门将推动高质量数据集有序开源开放,加强通用性风险管理和评估审计工具的研发,并探索基于应用场景的科技伦理风险评估评测体系。
在推广应用方面,办法鼓励开发符合科技伦理标准的人工智能产品和服务,同时强调保护伦理审查相关技术的知识产权。这一系列举措旨在构建人工智能发展与伦理审查协同推进的机制,促进技术向善、可控、可持续的发展方向。
