
整理 | 燕珊
谷歌的研究人员日前声称,他们首次利用大语言模型发现了一个重要漏洞。
在一篇博客文章中,谷歌表示,他们相信这是 AI agent在广泛使用的现实软件中发现此前未知的、可利用的内存安全问题的首个公开案例。具体来说,它在 SQLite 中发现了一个可被利用的堆栈缓冲区下溢漏洞。
这个漏洞在 10 月就被谷歌报告给 SQLite 开发团队,后者在同一天已经修复了它。由于漏洞在官方发布之前就被消除了,因此并没有影响到 SQLite 的用户。
1 利用大模型发现漏洞:或致程序崩溃甚至执行任意代码
这款基于大语言模型的漏洞挖掘 AI agent 名为“Big Sleep”,是谷歌的 Project Zero 和 DeepMind 合作的成果。据称,它是今年 6 月宣布的早期项目“Project Naptime”的延伸。
谷歌指出,在 8 月份的 DEFCON 安全会议上,负责创建 AI 辅助漏洞研究工具的网络安全研究人员在 SQLite 中发现了另一个问题,这激发了他们的团队去尝试看能否找到更严重的漏洞。
,堆栈缓冲区下溢漏洞可能允许攻击者导致程序崩溃,甚至执行任意代码。进一步地说,崩溃或代码执行会发生在 SQLite 可执行文件(而非库)中,原因是在代码的某个地方,特殊值 -1 被意外地用作数组索引。
br/>
希望 AI 能缩小这一差距
”。
在 Anthropic 的 Claude AI 模型的帮助下,在 Python 代码库中发现零日漏洞
。这个工具名为 VulnHunter,根据其开发人员的说法,它已经在大型开源 Python 项目中发现了十多个零日漏洞。
我们想重申,这些都是高度实验性的结果,
”谷歌团队写道。“‘Big Sleep’团队的立场是,Big Sleep Agent 目前针对特定目标的模糊测试工具在(发现漏洞)方面至少同样有效。”
https://www.theregister.com/2024/11/05/google_ai_vulnerability_hunting/
https://googleprojectzero.blogspot.com/2024/06/project-naptime.html
https://www.forbes.com/sites/daveywinder/2024/11/05/google-claims-world-first-as-ai-finds-0-day-security-vulnerability/
AI 时代如何重塑团队成员能力,以赋能业务持续增长?极客时间企业版精选了来自平安证券、华润集团、东亚中国、东风岚图等 6 个行业 20+ 数字化转型标杆企业的数字化人才培养实践经验,希望能在制定 2025 年技术团队培养规划之际,为您提供经验和参考。扫码立即领取
到此这篇odl数据库(oda数据库)的文章就介绍到这了,更多相关内容请继续浏览下面的相关推荐文章,希望大家都能在编程的领域有一番成就!版权声明:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权、违法违规、事实不符,请将相关资料发送至xkadmin@xkablog.com进行投诉反馈,一经查实,立即处理!
转载请注明出处,原文链接:https://www.xkablog.com/sjkxydsj/33353.html