人工智能的结果并不总是可靠的,但可以通过测量这种不确定性,使人工智能的使用更加安全。一项新的DIN标准对此提供了初步建议。
随着人工智能(AI)的快速发展,出现了信任方面的大问题:人工智能的结果有多可靠?机器学习(ML)的数据来自哪里?关于虚构的引用和人工智能生成的以假乱真的照片的争论需要我们在处理技术时要谨慎。如果它是安全关键应用的一部分,例如在医学或自动驾驶,则更是如此。
当ML模块在实践中使用时,不可避免地会出现技术开发中未考虑的场景。因为现实是复杂的——如此复杂,以至于机器学习的训练和测试数据只能部分反映它。通过量化和评估这种系统的不确定性,可以使ML模块在整个系统中的使用更加安全和稳健。
工业和科学援助
这正是德国新标准DIN SPEC 92005的用武之地:在“人工智能——机器学习中不确定性量化”的主题下,德国标准化机构(DIN)定义了所谓的机器学习中的不确定性量化的基本术语。该文件制定了要求和指南,并提供了应用示例。其目的是就如何在实践中处理不确定性的量化问题向行业和科学领域的利益相关者提供建议。
人工智能安全的重要支柱
DIN SPEC 92005的发起人、Industrieanlagen Betriebsgesellschaft mbH的Lukas Höhndorf博士指出,“不确定性的量化是一个广泛而深入的研究领域。但到目前为止,还缺乏反映当前技术水平的标准化,能够估计与模型、算法和预测结果相关的不确定性是人工智能安全的重要支柱,尤其是在安全关键系统中。"
影响结果的因素很多
不仅不完整或不清楚的数据和场景会影响ML模块的系统环境,自动驾驶过程中的极端天气条件或应用环境中其他参与者的非常规行为也会影响人工智能的结果。
CERTIFIED人工智能项目联合体负责人、Fraunhofer智能分析与信息系统研究所人工智能保证与认证团队负责人Maximilian Porechkin博士表示:“人工智能是许多传统软件无法实现的应用程序的基础。为了在敏感的应用环境中使用,人工智能系统必须是安全、稳健和值得信赖的。DIN SPEC 92005为确保这一点做出了重要贡献“。
DIN SPEC 92005是CERTIFIED AI研究项目的成果,该项目是DIN与Fraunhofer智能分析和信息系统研究所(IAIS)、联邦信息安全办公室(BSI)以及其他科学和工业合作伙伴共同合作开展的。其目的是确保技术可靠性和负责任地使用技术。该项目由北莱茵-威斯特法伦州经济、工业、气候保护和能源部资助。由来自以下组织的知名专家联盟共同制定:Industrieanlagen-Betriebsgesellschaft mbH IABG, the Fraunhofer Institutes for Intelligent Analysis and Information Systems IAIS, for Cognitive Systems ICS as well as for Experimental Software Engineering IESE, ai.dopt, DEKRA Digital GmbH, e:fs TechHub GmbH, Giesecke+Devrient, Helsing GmbH, Leibniz University of Applied Sciences, Federal Network Agency for Electricity, Gas, Telecommunications, Post and Railways (BNetzA), Institute for Occupational Safety of the German Social Accident Insurance (IFA).