一款新型工具问世,有望彻底改变各组织开展威胁建模的方式。STRIDE GPT 是一款由人工智能驱动的威胁建模工具,它利用大语言模型(LLM)的强大能力,为应用程序生成全面的威胁模型和攻击树,确保以主动积极的方式应对安全问题。
STRIDE GPT 由 Citi 安全赋能部门负责人 Matthew Adams 开发,它将 STRIDE 方法与大语言模型的能力相结合,实现了识别软件应用程序中潜在威胁和漏洞过程的自动化。
该工具拥有用户友好的界面,用户可以输入应用程序的详细信息,例如应用程序的类型、身份验证方法,以及它是否处理敏感数据或面向互联网等。
基于这些信息,STRIDE GPT 会生成详细的威胁模型和攻击树,并针对已识别的威胁提出可能的缓解措施。
STRIDE GPT—— 人工智能驱动的工具
STRIDE GPT 的一个显著特点是其多模态能力,它允许用户将架构图、流程图和其他可视化表示形式纳入威胁建模过程中。
通过考虑应用程序架构的各个方面,这一特性提高了威胁模型的准确性和全面性。
此外,STRIDE GPT 支持 DREAD 风险评分,该评分能够对潜在威胁的严重程度进行更细致的评估,有助于对缓解措施的优先级进行排序。
该工具与包括来自 OpenAI、Azure OpenAI Service、Google AI API 和 Mistral API 等在内的各种人工智能模型相集成,确保了对不同组织需求的灵活性和适应性。
考虑到数据隐私问题,STRIDE GPT 还通过 Ollama 和 LM Studio Server 支持本地托管模型,确保应用程序的详细信息不会被存储,从而维护了数据的保密性。
STRIDE GPT 的开发过程中不断进行改进,最近的更新包括支持对 GitHub 存储库进行分析,通过分析存储库的 README 文件和关键文件,实现更全面的威胁建模。
对于那些希望从项目启动之初就融入安全实践的组织来说,这一特性尤为有用。
该工具的影响不仅仅局限于生成威胁模型。它还会根据已识别的威胁生成 Gherkin 测试用例,弥合了威胁建模和测试之间的差距,确保将安全考量融入到测试过程中。
STRIDE GPT 提出可能缓解措施的能力,进一步增强了这种全面的安全处理方式,使其成为网络安全专业人员和开发团队的宝贵资产。
2024 年 1 月,Matthew Adams 在 Open Security Summit 上展示了 STRIDE GPT,他在会上讨论了该项目的起源、核心功能以及未来计划。此次展示强调了该工具通过提高威胁建模实践的可访问性和效率来改变威胁建模实践的潜力。
随着各组织在各种应用中越来越依赖人工智能和机器学习,像 STRIDE GPT 这样的工具已变得不可或缺。它们不仅有助于识别和缓解威胁,还能帮助理解部署人工智能驱动系统所带来的安全影响。
凭借对 STRIDE 方法的关注以及与人工智能的集成,STRIDE GPT 站在了现代网络安全实践的前沿,让我们得以一窥未来以人工智能驱动的安全解决方案成为常态的景象。
总之,STRIDE GPT 代表了威胁建模领域的重大进步,它利用大语言模型的力量,针对潜在的安全威胁提供详细且可操作的见解。
它的开发和应用标志着在软件开发中向更自动化、智能化和主动化的安全措施转变,确保应用程序在设计之初就具备安全性。
发表评论
您还未登录,请先登录。
登录