生成式人工智能深度伪造可以煽动错误信息或篡改真人图像以达到不怀好意的目的。根据 Cato Networks 的 CTRL Threat Research 于 10 月 9 日发布的一份研究报告,它们还可以帮助威胁行为者通过双因素身份验证。
人工智能生成假人对着摄像头的视频
CTRL Threat Research 所描述的威胁行为者–以 ProKYC 为名–使用 deepfakes 来伪造政府 ID 和欺骗面部识别系统。攻击者在暗网上向有抱负的欺诈者出售这种工具,其最终目的是渗透加密货币交易所。
一些交易所要求潜在账户持有人同时提交政府身份证件和视频直播。利用生成式人工智能,攻击者可以轻松创建一个逼真的人脸图像。然后,ProKYC 的深度伪造工具就会将这张照片植入伪造的驾驶执照或护照中。
加密货币交易所的面部识别测试需要简短的证据,证明该人就在摄像头前。深度伪造工具会欺骗摄像头,并创建一个人工智能创建的左右看的人的图像。
看:Meta 是最新一家为逼真视频创建工具的人工智能巨头。
然后,攻击者使用生成的、不存在的人的身份在加密货币交易所创建一个账户。在那里,他们可以利用该账户清洗非法获得的资金或实施其他形式的欺诈。根据 Javelin Research 和美国退休人员协会(AARP)的数据,这种被称为 “新账户欺诈 ”的攻击会在 2023 年造成 53 亿美元的损失。
出售入侵网络的方法并不新鲜:“勒索软件即服务 ”计划让有抱负的攻击者可以购买进入系统的方法。
如何防止新账户欺诈
Cato Research 的首席安全战略师 Etay Maor 为企业提供了几条防止使用人工智能创建虚假账户的建议:
公司应扫描人工智能生成的视频的共同特征,如非常高质量的视频–人工智能可以生成比标准网络摄像头通常捕获的图像更清晰的图像。
观察或扫描人工智能生成的视频中的瑕疵,尤其是眼睛和嘴唇周围的不规则现象。
从整个组织中收集威胁情报数据。
毛尔在卡托研究公司的研究报告中写道,要在过多或过少的审查之间找到一个平衡点可能很棘手。“他写道:”如上所述,建立限制性过强的生物识别身份验证系统会导致许多假阳性警报。“另一方面,控制不严也会导致欺诈。
发表评论
您还未登录,请先登录。
登录