ETSI非常高兴地宣布成立一个新的安全人工智能行业规范小组(ISG SAI)。该团队将制定技术规范,以减轻多个信通技术相关行业中人工智能部署的威胁。这包括来自传统来源和其他人工智能系统的威胁。
成立ETSI安全人工智能团队的目的是希望自主机械和计算实体能够通过设计或恶意意图对依赖方采取行动。当涉及自动机时,需要重新评估以“识别-保护-检测-响应”为代表的网络风险分析和对策部署的常规周期。
因此,ISG赛意在标准领域解决人工智能的三个方面:
保护AI免受攻击例如,AI是系统中需要防御的组件。
缓解人工智能,例如,在人工智能是一个“问题”或用于改善和增强其他更传统的攻击载体的情况下。
使用人工智能来增强针对其他事物攻击的安全措施,例如,人工智能是“解决方案”的一部分,或者用于改进和增强更常规的对策。
ETSI ISG SAI旨在开发技术知识作为基准,以确保人工智能的安全性。受ETSI集团活动影响的利益相关方包括最终用户、制造商、运营商和政府。
小组第一次会议期间将开展并确认三项主要活动。
人工智能威胁本体。
目前,对于什么构成对AI的攻击以及如何创建、托管和传播AI,还没有达成共识。这里要做的工作将试图定义什么将被视为人工智能威胁,以及它与传统系统的威胁有何不同。因此,AI威胁本体规范旨在统一不同利益相关者和多个行业的术语。ETSI规范将在网络和物理安全的背景下定义这些术语的含义,并为每个人提供易于理解的叙述。这个威胁本体将AI视为系统、攻击者和防御者。
保护AI问题声明。
该规范将以ETSI GS NFV-SEC 001《安全问题声明》为范本,对指导ETSI NFV的范围,实现NFV基础设施的“设计安全”有很大影响。它将定义和优先考虑潜在的人工智能威胁,并建议要采取的措施。本规范中包含的建议将用于定义后续工作的范围和时间表。
数据供应链报告。
数据是AI系统开发的关键组成部分,包括原始数据和信息以及周期内其他AI系统和人员的反馈。然而,获取适当数据的途径通常有限,这导致需要求助于不适当的数据源。事实证明,破坏数据完整性是AI系统可行的攻击媒介。该报告将总结当前用于培训人工智能数据源的方法,审查开发数据共享协议的现有措施,并分析确保共享数据、信息和反馈的完整性和保密性的标准要求。这些。
新ETSI集团的创始成员包括英国电信、凯德索通信、华为技术、NCSC和西班牙电信。
ISG最高审计机关第一次会议将于10月23日在索菲亚安蒂波利斯举行。快来加入,一起塑造安全人工智能的未来!