《人工智能治理上海宣言》发布,AI发展要遵循四大责任

图源:图虫创意

人工智能研究和应用有没有“禁区”?需要遵循哪些责任?今天举行的2019世界人工智能大会治理主题论坛上,青年科研人员团体发布了《中国青年科学家2019人工智能创新治理上海宣言》,强调人工智能发展要遵循伦理责任、安全责任、法律责任和社会责任,展现了中国青年科学家参与推动全球人工智能伦理道德发展的担当与使命。

上海市人大常委会副主任沙海林、科技部副部长李萌在论坛上致辞。全国人大外事委员会副主任委员、清华大学国际战略与安全研究中心主任傅莹,联合国科技促进发展委员会副主席Peter Major作主旨演讲。论坛以“合作治理 共创未来”为主题,来自联合国、欧盟、经合组织、清华大学、牛津大学以及国际知名智库、人工智能企业的数十位专家与会,围绕人工智能治理问题与国际合作展开研讨。

据李萌介绍,今年5月,上海国家新一代人工智能创新发展试验区揭牌,明确了建立健全政策法规、伦理规范、治理体系的相关任务。6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则》,突出了负责任和开放协作的主题。为落实《新一代人工智能治理原则》和上海人工智能创新发展试验区建设方案,推进全球人工智能治理合作,科技部战略规划司和上海市科委发起了2019世界人工智能大会治理论坛。

上海市计算机学会青工委副主任王昊奋教授在论坛上宣读了《中国青年科学家2019人工智能创新治理上海宣言》。在伦理责任方面,宣言呼吁制订相关法律法规,明确用户权属,加强隐私保护意识,发展隐私保护算法和技术,以公开、透明、合法的方式收集和使用数据。人工智能应遵循公平、无歧视原则,对不同人群提供无偏见服务;应从系统工程角度出发,构建数据多样、算法无偏见的人工智能系统,提升用户体验的公平性。宣言指出,人工智能应符合人类价值观和利益,要制订可被广泛认可的人工智能道德规范,提出遵循道德规范的算法、产品设计技术框架,作为推理和决策时共同遵守的基本原则。

在安全责任方面,宣言指出,人工智能应是安全、稳健的,要将技术鲁棒性和安全性贯穿于整个研究过程,提供安全可信系统,提高系统抗攻击、自我修复能力。人工智能算法应是透明且易被解释的,要致力于开源、可解释性研究,增加非黑盒算法研究,多层面提高透明度,以证明其结论和行为符合道德参考框架。

在法律责任方面,人工智能应是可审计、可追溯的,要确定测试基准及部署流程与规范,保证算法可验证,逐步完善对人工智能系统的问责与监管机制。人工智能应具备供用户自主选择的权利,要提供透明、可理解的决策解释和交互手段,允许用户参与、监督或干预决策过程。

在社会责任方面,人工智能应为人类的可持续发展赋能。要开展诸如模型裁剪与优化、高效能硬件架构、绿色数据中心等环境友好的研究与服务。人工智能研究者应将人类福祉摆在优先地位,注重人工智能应用研发的民生导向,考虑用户的数字福祉,创造更具幸福感的工作和生活方式。