据Lakera称,95%的网络安全专家对GenAI安全措施信心不足,而红队数据显示任何人都可以轻松入侵GenAI模型。
特定于GenAI的攻击方法或提示攻击很容易被任何人用来操纵应用程序,获得未经授权的访问,窃取机密数据并采取未经授权的操作。意识到这一点,在接受调查的 1,000 名网络安全专家中,只有 5% 的人对保护其 GenAI 应用程序的安全措施有信心,尽管 90% 的人积极使用或探索 GenAI。
Lakera首席执行官David Haber表示:“只需几句精心设计的文字,即使是新手也可以操纵AI系统,从而导致意外操作和数据泄露。“随着企业越来越依赖GenAI来加速创新和管理敏感任务,他们在不知不觉中将自己暴露在传统网络安全措施无法解决的新漏洞中。在一个新兴领域,高采用率和低准备度的结合可能并不令人惊讶,但风险从未如此之高。”
有了GenAI,每个人都是潜在的黑客
Gandalf 是 Lakera 创建的一款 AI 教育游戏,吸引了超过 100 万玩家,其中包括试图突破其防御的网络安全专家。值得注意的是,这些玩家中有 200,000 人已经成功完成了游戏的七个关卡,展示了他们操纵 GenAI 模型采取意外行动的能力。
这为问题的严重性提供了一个非常有价值的参考点。使用他们的母语输入命令和一点创造力使这些玩家能够在平均仅 45 分钟内欺骗甘道夫的七级。这个鲜明的例子强调了一个令人不安的事实:现在每个人都是潜在的黑客,企业需要一种新的GenAI安全方法。
“在最高管理层需求的推动下,采用GenAI的竞赛使得安全准备现在比技术发展的任何关键时刻都更加重要。GenAI 是千载难逢的颠覆,“Cloudflare、Uber 和 Meta (Facebook) 的前 CSO 兼 Lakera 顾问 Joe Sullivan 说。“然而,为了利用其潜力,企业必须考虑其挑战,而毫无疑问,这就是安全风险。做好准备并降低这种风险是那些引领采用的公司手头的#1工作。
LLM 的可靠性和准确性是采用的第一大障碍
35%的受访者担心LLM的可靠性和准确性,而34%的受访者担心数据隐私和安全性。缺乏熟练人才占28%的问题。
45%的受访者正在探索GenAI用例;42%的人正在积极使用和实施GenAI。只有 9% 的受访者表示目前没有采用 LLM 的计划。
只有 22% 的受访者采用了特定于 AI 的威胁建模来为 GenAI 特定的威胁做准备。
各行各业的安全措施的准备和采用水平差异很大。例如,占受访者总数的 8% 的金融行业更倾向于严格的安全实践,20% 的组织拥有专门的 AI 安全团队,27% 的组织将他们的准备情况评为最高级别(5 分中的 4 或 5 分)。
相比之下,教育部门(占受访者的12%),只有9%的组织拥有专门的人工智能安全团队,只有15%的组织认为他们的准备情况处于最高水平。这些对比凸显了不同行业面临的不同程度的紧迫性和监管压力。
发表评论
您还未登录,请先登录。
登录