保护人工智能生态系统:下一个重大网络安全挑战

Varun普拉萨德
作者: Varun普拉萨德, BDO USA第三方认证高级经理(云)
发表日期: 2023年5月23日
相关: 人工智能基础证书

今年被理所当然地吹捧为人工智能之年. 从那以后,ChatGPT已经渗透到我们生活的方方面面, 从厨房餐桌到会议室,甚至教室, 人们对人工智能的更大前景议论纷纷,对相关技术的认识和兴趣也在增加. 由于澳门赌场官方下载正在寻找将人工智能集成到其业务流程或产品中以帮助消费者的方法, 人工智能系统的安全性和完整性变得至关重要.

在此上下文中以及本讨论中,安全性指的是围绕开发的信息安全风险, 操作和维护人工智能系统,而不是围绕与人工智能相关的道德和隐私问题(如数据质量等主题), 决策和数据使用方面的偏见, 分享认股权证是另一个更大的问题。). 类似于任何其他应用程序, 对学习模型的篡改或决策逻辑的妥协将直接影响和破坏最终的结果, 使这些系统实际上不可靠. 人工智能系统的独特属性需要在风险管理过程中进行特殊考虑,以识别不同的威胁并制定适当的控制措施来减轻这些威胁.

人工智能安全通常从讨论训练数据的安全性开始——围绕数据污染的风险, 数据准备过程的完整性和对输入源的访问. 然而, 这些风险领域也适用于基于大数据的数据仓库应用程序,而不仅仅是人工智能的新事物. 访问聚合和数据混合等挑战是已知的风险,也需要在这些系统中加以解决. 让我们来看看人工智能系统特有的一些风险和关键控制,它们需要特别注意.

学习模型是人工智能的核心

学习模型是人工智能系统的核心, 让它们周围的存储和安全变得非常重要. 学习模型通常存储在AI注册表中, 在云上的对象存储或存储库中的代码中. 必须使用最小特权原则严格控制对注册中心的访问,并与现有的身份验证提供程序集成. 必须创建自定义IAM或bucket策略,为包含学习模型和参数的对象存储分配粒度权限. 这些策略是动态分配的,以便在需要时启用对对象存储的访问. 

存储库安全性通常缺乏对细节的关注,需要更强的控制. 应该创建一个回购授权矩阵,根据回购中持有的代码的敏感性,为工程师和操作人员定义所需的回购访问级别. 这个矩阵可以用作提供对回购的访问的基础. 最后, 对学习模型的访问必须作为定期用户访问审查中的一项,以确保访问仅限于适当的人员.

在AI上下文中更改管理

特性速度是产品经理密切关注的一个关键指标,在当今的SaaS世界中,它总是在不断改进. 尽管快速推出新功能以保持竞争优势是很重要的, 在AI应用程序中, 产品精度, 精确度和可重复性指标将更加相关和有意义. 必须调整产品开发方法,以包括广泛的设计和威胁模型审查以及测试过程,从而对系统输出的可靠性和可重复性具有高度的信心. 变更管理过程必须得到加强,以根据变更的类型和性质要求详细的审查和测试需求. 例如, 与其他类型的更改或错误修复相比,对学习模型或决策算法的更改需要更多的审查和验证. 如今,大多数云原生应用程序的软件开发过程都涉及到同行或高级团队成员的代码审查,以及自动烟雾测试和完整性测试的组合. 然而, 基于人工智能系统变化的重要性, 在部署到生产环境之前,必须进行更彻底的评估和一系列详细的功能和回归测试.

另外, 类似于传统的软件供应链攻击, 人工智能系统容易受到模型供应链的攻击. 为了减轻这些, 静态应用程序扫描和软件组合分析必须集成到CI/CD管道中,以帮助识别漏洞并发布干净安全的应用程序.

人工智能监控:超越常规安全

人工智能系统很复杂,必须不断监控,以确保它们按预期运行, 识别异常, 检测安全问题,并在问题对业务结果产生不利影响之前主动寻找解决问题的方法. 人工智能监控超越了常规的安全和操作监控,还研究了机器学习模型的性能和决策过程中算法的工作原理. 这可以跟踪(不限于)数据精度等指标, 输出偏差, 数据漂移和异常值, 它有助于及早发现系统中的问题. 我认为人工智能监控必须与传统的SIEM工具结合使用,才能全面了解性能和安全状况.

几乎所有组织和智库发布的基于人工智能的框架和原则都提到了安全性, 人工智能系统的安全性和可靠性是一个重要的前提. 因此, 与其他应用相比,这些系统的网络安全态势预计将更加成熟和强大. 随着人工智能作为一种技术的不断发展, 风险和威胁还会增加, 我们必须不断改善调控环境,解决这些问题. 在接下来的几个月里, 我预计,为人工智能系统量身定制的控制框架将为我们提供更多指导和工具,以确保人工智能生态系统的安全.

编者按: 通过ISACA了解更多关于人工智能的信息 人工智能基础证书.

ISACA年度报告

2023
复选标记

2022
复选标记

2021
复选标记

2020
复选标记

2019
复选标记