< 人工智能:如何让机器学习网络安全?_华体育app官网_华体育app官网登录|华体会手机版

  如何防止机器学习网络攻击?如何在不影响性能的情况下部署控件?欧盟网络安全局在近期发布的一份新报告中回答了机器学习的网络安全问题。

  2021 年 12 月 14 日,欧盟网安局发布了名为《保护机器学习算法》的报告。该报告基于对机器学习相关文献的系统回顾,提供了机器学习算法的分类,突出了核心功能和关键阶段。该报告还详细分析了针对机器学习系统的威胁。已识别的威胁包括数据中毒、对抗性攻击和数据泄露等。最后,报告列出了相关文献以及安全框架和标准中描述的具体且可操作的安全控制。

  机器学习 (ML) 是目前工业和政府基础设施中最发达和最有前途的人工智能子领域。通过提供智能和自动解决决策问题的新机会,人工智能 (AI) 几乎应用于经济的所有领域。

  虽然人工智能 的好处是显著且毋庸置疑的,但人工智能的发展也引发了新的威胁和挑战(见下文ENISA 《AI威胁态势报告》简介)。

  机器学习算法用于赋予机器从数据中学习的能力,以便在没明确编程的情况下解决任务。然而,这样的算法需要大量的数据来学习。因为它们这样做,它们也可能受到特定的网络威胁。

  该《保护机器学习算法》报告呈现了ML技术和核心功能的分类法。该报告还包括针对 ML 技术的威胁和 ML 算法漏洞的映射。它提供了推荐的相关安全控制列表,以增强依赖 ML 技术的系统中的网络安全。突出的挑战之一是如何在不损害预期性能水平的情况下选择要应用的安全控制。

  报告中概述的针对 ML 特定攻击的缓解控制通常应在使用 ML 的系统和应用程序的整个生命周期中部署。

  根据研究和对 ENISA 人工智能特设工作组专家的采访,共确定了 40 种最常用的 ML 算法。开发的分类法是基于对此类算法的分析。

  设计的非详尽分类法旨在支持识别哪些特定威胁针对 ML 算法、相关漏洞是什么以及解决这些漏洞所需的安全控制的过程。

  · 公共/政府:欧盟机构和机构、成员国监督管理的机构、数据保护监督管理的机构、军事和情报机构、执法机构、国际组织和国家网络安全机构。

  · 整个行业,包括求助于人工智能解决方案的中小型企业 (SME)、基本服务运营商;

  · 人工智能技术、学术和研究社区、人工智能网络安全专家和人工智能专家,如设计师、研发人员、ML 专家、数据科学家等。

  欧盟网络安全局称其参与了与欧盟委员会和欧盟机构就人工智能网络安全和监管举措的公开对话,以期对未来政策提供关键意见,继续在人工智能 (AI) 评估中发挥更大作用,

  欧盟网安局2020年成立了 ENISA 人工智能网络安全特设工作组。该工作组支持 ENISA 构建AI网络安全知识的过程。该小组的成员来自欧盟委员会通信网络、内容和技术总局 (DG CONNECT)、欧盟委员会总局联合研究委员会 (DG JRC)、欧洲刑警组织、欧洲防务局 (EDA)、欧盟自由、安全和司法领域大型 IT 系统运营管理机构 (eu-LISA)、欧洲电信标准协会 (ETSI) 以及学术界和行业专家。 该工作组收集以下方面的意见:人工智能安全;人工智能网络安全挑战;人工智能资产分类;数据集安全性;人工智能网络威胁情报;人工智能威胁形势;人工智能风险管理;AI算法安全;和AI相关的数据安全;行业人工智能专业知识;安防措施; 建议;适用标准;相关的欧盟政策;人工智能可信度;人工智能的可解释性和验证;相关技术领域等。

  欧盟网络安全局 (ENISA) 发布的该报告,揭示了人工智能生态系统面临的主要网络安全挑战。ENISA 的研究采用了一种方法论方法来绘制人工智能中的关键参与者和威胁。该报告跟进了欧盟委员会 2020 年人工智能白皮书中定义的优先事项。这种新兴技术的好处是显著的,但也存在一些问题,例如潜在的新的操纵途径和攻击方法。该技术在整个供应链中采取了许多步骤,并且需要大量数据才能有效运行。该报告强调了网络安全和数据保护在 人工智能 生态系统各个部分的重要性,以便为最终用户创造值得信赖的技术。

  欧盟网络安全机构执行主任Juhan Lepassaar表示:“网络安全是人工智能值得信赖的解决方案的基础之一。对人工智能网络安全威胁的共同理解将是欧洲广泛部署和接受人工智能系统和应用的关键。”

  ENISA 的这项工作旨在作为保护 人工智能 举措的基准:无论是在政策方面(因为它的框架为网络安全威胁提供指导),以及在技术控制方面(因为它突出了特定威胁可能需要采取哪些行动)。该报告针对制定未来安全 人工智能 部署指南的政策制定者,针对支持定制风险评估的技术专家以及支持即将推出的 人工智能 安全标准的标准化机构。

  通过遵循生命周期方法在网络安全背景下定义 人工智能 的范围。人工智能系统和应用程序的生态系统是通过考虑人工智能生命周期的不同阶段来定义的——从需求分析到部署。

  · 识别 人工智能 生态系统的资产是确定需要保护的内容以及在 人工智能 生态系统的安全性方面可能出现问题的基本步骤。

  · 通过详细的分类法绘制 人工智能 威胁态势图。这可作为识别特定用例的潜在漏洞和攻击场景的基准。

  《ENISA AI 威胁态势报告》确定了在欧盟范围内部署安全 AI 系统和服务的挑战和机遇。该报告强调需要采取更有针对性和相称的安全措施来减轻已识别的威胁,以及需要深入研究人工智能在健康、汽车和金融等领域的使用。

  该报告发表于2020 年 12 月 15 日,介绍了该机构在人工智能网络安全特设工作组的支持下对人工智能网络安全生态系统及其威胁形势的积极绘制。ENISA AI 威胁态势报告(AI Threat Landscape)不仅为即将推出的网络安全政策举措和技术指南奠定了基础,而且还强调了相关挑战。一个特别重要的领域是与AI相关的供应链,因此重要的是要强调欧盟生态系统对安全和值得信赖的人工智能的需求,包括人工智能供应链的所有元素。欧盟安全的人工智能生态系统应将网络安全和数据保护放在首位,并促进相关的创新、能力建设、意识提高和研发举措。

  · 遵循生命周期方法在网络安全背景下定义人工智能的范围。考虑到人工智能生命周期从需求分析到部署的不同阶段,描绘了人工智能系统和应用程序的生态系统。

  · 识别 人工智能 生态系统的资产是确定需要保护的内容以及在 人工智能 生态系统的安全性方面可能出现的问题的基本步骤。

  · 通过详细的分类法绘制 人工智能 威胁态势图。这可作为识别潜在漏洞和最终针对特定用例的攻击场景的基线,从而在即将进行的部门风险评估和相应安全控制列表中提供服务。

  · 针对不同资产和不同 人工智能 生命周期阶段的威胁分类,还列出了相关的威胁参与者。还强调了威胁对不同安全属性的影响。

  2020年2月19日,欧盟委员会在布鲁塞尔发布了《人工智能白皮书——追求卓越和信任的欧洲方案》(White Paper: On Artificial Intelligence – A European Approach to Excellence and Trust),讨论了欧盟委员会所支持的两个重要科技政策目标,即通过加强投资和监管,促进人工智能发展和处理有关技术应用带来的风险。白皮书的目的在于协助欧洲各国同美国在人工智能与科技领域和中国相抗衡。欧洲委员会已根据“数字欧洲计划”提出了超过40亿欧元的建议,以支持高性能和量子计算,包括边缘计算和人工智能,数据和云基础设施。欧盟提出,下个十年里在人工智能上吸引超过200亿欧元的总投资金额。根据白皮书,在接下来的五年中,欧盟委员会将专注于数字化的三个关键目标:为人民服务的技术;公平竞争的经济;开放、民主和可持续的社会。并能够促进欧洲在人工智能领域的创新能力,推动道德和可信赖人工智能的发展。白皮书提出一系列人工智能研发和监管的政策措施,并提出建立可信赖的人工智能框架。

  白皮书围绕着两个关键部分展开:一是建立协调欧洲、国家和区域三个层面不同政策措施的框架。通过私人和公共部门之间的合作,调动资源创建一个从研究到创新在内的包含整个价值链的“卓越ECO”,并建立正确的激励机制,让包括中小企业在内的行为体加快采用基于人工智能的解决方案。二是创建“信任ECO”的监管框架。要做到这一点,必须确保AI系统遵守欧盟的规则,包括保护那些最基本的权利和消费者权利,特别是那些在欧盟运行的、风险较高的AI系统。这个政策旨在让公民有信心接受人工智能应用,让企业和公共组织在有法律保证的条件下利用人工智能进行创新。欧洲委员会大力支持“以人为本”的方法。

  成立于2004年的“欧盟网络与信息安全局(European Union Agency for Network and Information Security,ENISA)”,以欧盟层级网络安全职能部门的角色,为欧盟及其成员国提供增强信息与网络安全相关的建议和协助,此外,保护能源、交通、金融市场、银行业、医疗保健及数字资产等欧洲大陆关键基础设施的安全,也是该局的核心职能。该局的自身定位是帮助欧盟及其成员国为应对未来的网络攻击做好充分准备。该局与欧盟计算机应急响应小组(CERT-EU)和欧洲警察组织(Europol)下属的欧洲网络犯罪中心(European Cybercrime Center)建立了紧密联系。

  如需获取《保护机器学习算法》报告的电子版pdf(70页),请移步三正科技公司知识星球(二维码附于文后)。

  (来源:ENISA等。本文参考内容均来自互联网,仅供读者了解和掌握相关情况参考,不用于任何商业用途。侵删)

CONTACT US
欢迎随时与我们联系