美国国家标准与技术研究院 (NIST) 最近发布了有关对抗性机器学习 (AML) 攻击和缓解措施的指南,再次引发了人工智能 (AI) 日益普及带来的隐私和安全担忧。小心。 近年来的制度。 它表示存在安全挑战,目前还没有万无一失的方法来保护此类系统。
NIST 认为这些安全和隐私挑战包括恶意操纵训练数据,并指出它涉及恶意利用模型漏洞。 一个人工智能系统。 影响、恶意操纵、修改或简单操纵模型可能会导致有关个人、公司甚至模型本身的敏感数据泄露。
随着 OpenAI ChatGPT 和 Google Bard 等生成式人工智能系统的出现,人工智能系统正在迅速集成到在线服务中,但支持这些技术的模型在其发展的每个阶段都面临着许多威胁。运营。 。 NIST 重点关注四种主要类型的攻击:逃避、投毒、隐私和利用。
逃避攻击:目标是在模型部署后生成对抗性输出。 中毒攻击:通过引入损坏的数据来攻击算法的训练阶段。 隐私攻击:目标是质疑和收集相关信息,以规避现有的保护措施。 针对系统或其训练数据的敏感信息滥用攻击:目标是破坏合法信息源(例如包含虚假信息的网页),并将系统重新用于其预期目的。
在规避攻击中,NIST 攻击本身。 示例包括驾驶汽车,例如创建令人困惑的车道标记,导致汽车偏离道路。
对自动驾驶汽车进行规避攻击
沉迷于在这次攻击中,攻击者试图在 AI 训练期间引入损坏的数据。 例如,通过在对话记录中嵌入大量此类语言实例来强制聊天机器人使用不适当的语言,将欺骗人工智能相信这是一个常见的短语。
在隐私攻击中,攻击者向聊天机器人提出大量问题,并尝试使用给出的答案对模型进行逆向工程。相反,发现弱点以获取有关人工智能或其训练数据的存在的敏感数据。
利用攻击涉及将虚假信息注入网页或在线文档等来源,然后由人工智能吸收。 与前面提到的中毒攻击不同,利用攻击试图从合法但受损的来源向人工智能提供虚假信息,以便将人工智能系统重新用于其预期用途。
NIST指出,上述攻击不需要完全了解人工智能系统的某些方面就可以轻松实施,希望科技界能够设计出更好的防御措施说已经做到了。 来应对这些风险。
评论前必须登录!
注册