首页 > 综合新闻
广东智慧教育研究院牵头编制《人工智能产品伦理风险管理指南》团体标准通正式发布
供稿单位:广东智慧教育研究院 发布日期:2025-01-14 阅读量:

暨南大学融媒体中心讯 近日,中国技术市场协会发布团体标准审查的公告显示,由暨南大学广东智慧教育研究院牵头,联合哈尔滨工业大学、北京世纪好未来教育科技有限公司等多家单位和高校编制的《人工智能产品伦理风险管理指南》团体标准,于2024年12月30日发布并实施。暨南大学广东智慧教育研究院院长刘子韬教授和院长助理高博宇教授为该标准的主要起草人。

(相关公告)

立项背景

近年人工智能伦理事件频发,人工智能伦理问题及伦理风险急剧上升等现象成为社会关注重点问题之一。与此同时,在监管方面,人工智能伦理逐渐受到各国和地区用户和监管机构的重视,国内外政策法规也在逐步出台,管理机制逐渐建立;在管理方面,部分利益相关方的内、外部未设立人工智能伦理风险评估、审查机制与相关机构,相关风险管理与风险评估流程缺乏科学依据。

《人工智能产品伦理风险管理指南》该文针对人工智能产品的伦理风险,从数据、算法、应用管理等三方面开展人工智能伦理风险分析,并依据科技部《新一代人工智能伦理规范》、《科技伦理审查办法(试行)》等文件,提出人工智能产品相关的伦理风险管理体系,为人工智能技术、产品和服务利益相关方在开发和使用过程中提供一定的伦理指导依据。

主要技术内容

(技术内容框架示意图)

1. 实施框架:提出了人工智能产品伦理风险管理实施框架,旨在确保人工智能产品的创新与伦理风险防范相统一。

2. 管理原则:提出4项人工智能伦理风险管理原则:增进人类福祉、坚持公平向善、推动透明可释以及确保可控可持续。

3. 管理过程:提出人工智能伦理风险管理过程,包括风险范围界定、风险评估、风险处置以及风险监督、检查与记录。

4. 控制措施:提出人工智能产品伦理风险管理控制的7项措施:公平性、透明可解释性、数据隐私及保护、可控可靠性、向善性、责任可追溯和可持续性。

5. 保障机制:提出6项人工智能产品伦理风险管理保障机制:管理制度、统筹协调、工作职责、人员培训、专家复核和工具保障。

未来,暨南大学广东智慧教育研究院将继续秉持科技向善的理念,提升公众对人工智能技术的信任和接受度,促进其在各领域的广泛应用。

责编:周会谦

未经允许,不得转载,侵权必究!

分享到微信朋友圈

打开微信,点击 “ 发现 ” ,使用 “ 扫一扫 ” 即可将网页分享至朋友圈。
关闭