返回

十部门发文规范人工智能科技活动伦理治理

《陕西日报》 (2026年04月04日 第01版)

新华社北京4月3日电 (记者 唐诗凝 周圆)记者3日获悉,工业和信息化部等十部门近日联合印发《人工智能科技伦理审查与服务办法(试行)》,提出支持人工智能科技伦理审查技术创新,强化以技术手段防范人工智能科技伦理风险。

办法明确,开展人工智能科技伦理审查重点关注人类福祉、公平公正、可控可信等方面。包括训练数据的选择标准,算法、模型、系统的设计是否合理;是否采取措施防止偏见歧视、算法压榨,保障资源分配、机会获取、决策过程的客观性与包容性;是否合理披露算法、模型、系统的用途、运行逻辑、交互方式说明、潜在风险等信息等。

办法还提出,促进人工智能科技伦理审查高质量数据集有序开源开放,加强通用性风险管理、评估审计工具研发,探索基于应用场景的科技伦理风险评估评测;推广符合科技伦理的人工智能产品和服务,保护科技伦理审查技术知识产权。

A+ A A-
语速([0-100]):
音量([0-100]):
音高([0-100]):
发音人:
小语种(泰语):
注意:发音人与语种会关联,小语种需要开通指定发音人