1月16日,BSI推出了首个旨在实现全社会安全、可靠和负责任地使用人工智能(AI)的人工智能管理系统,此前的研究显示,61%的人希望获得该技术的全球指南。
该国际标准(BS ISO/IEC 42001)旨在帮助组织负责任地使用人工智能,解决不透明的自动决策、使用机器学习而非人工编码逻辑进行系统设计以及持续学习等问题。
该指南由英国国家标准机构BSI在英国发布,阐述了如何建立、实施、维护和持续改进人工智能管理系统,重点是保障措施。这是一个基于影响的框架,提供了促进人工智能风险评估的要求,以及内部和外部人工智能产品和服务的风险处理和控制的详细信息。它旨在帮助组织引入以质量为中心的概念,并负责任地在人工智能产品和服务的设计、开发和提供中发挥作用,使他们和整个社会受益。该出版物在《英国政府的国家人工智能战略》中被突出引用,作为实现人工智能安全、合乎道德和负责任使用的保障措施的一步。
BSI首席执行官苏珊·泰勒·马丁表示:“人工智能是一项变革性技术。要使它成为一股强大的向善力量,信任至关重要。第一个国际人工智能管理系统标准的发布是实现组织负责任地管理该技术的重要一步,这反过来又为利用人工智能加速迈向更美好的未来和可持续的世界提供了机会。BSI很自豪能够站在确保人工智能在全社会安全和可信融合的最前沿。”
BSI最近对9个国家的10000名成年人进行的人工智能信任民意调查发现,全球五分之三的人和英国同样比例的人(62%)希望国际指南能够帮助人们安全使用人工智能。全球近五分之二(38%)的人已经每天在工作中使用人工智能,而超过三分之二的人(62%)预计他们的行业将在2030年前使用人工智能。研究发现,缩小“人工智能信心差距”并建立对该技术的信任是推动其为社会和地球造福的关键。
BSI标准总裁Scott Steedman表示:“尽管缺乏既定的规制框架,但人工智能技术正被英国的组织广泛使用。当政府考虑如何最有效地监管时,各地的人们都在呼吁制定指南和护栏来保护他们。在这个快速发展的领域,BSI很高兴地发布关于人工智能技术工业用最新国际管理标准,该标准旨在帮助公司将人工智能的安全和负责任的使用嵌入其产品和服务中。
“医疗诊断、自动驾驶汽车和数字助理只是已经从人工智能中受益的产品的几个例子。消费者和行业需要相信,在开发这些新技术的竞赛中,我们没有嵌入歧视、安全盲点或隐私损失。新人工智能标准中的企业领导指南旨在通过关注关键风险、责任和保障措施,平衡创新与最佳实践。”
BSI作为ISO/IEC JTC 1/SC 42的参与成员,在标准制定中代表英国的利益。