当人们试图为生成式人工智能找到更多的用途时,Google计划将人工智能应用于网络安全领域,让威胁报告更容易阅读。Google在一篇博客文章中写道,它的新网络安全产品"Google威胁情报"将把其Mandiant网络安全部门和VirusTotal威胁情报部门的工作与Gemini人工智能模型结合起来。
新产品使用了 Gemini 1.5 Pro 大型语言模型,Google称该模型缩短了恶意软件攻击逆向工程所需的时间。该公司称,今年 2 月发布的 Gemini 1.5 Pro 只用了 34 秒就分析了WannaCry 病毒(2017 年勒索软件攻击,导致全球医院、公司和其他组织陷入瘫痪)的代码,并识别出一个杀毒开关,这令人印象深刻,但也不足为奇,因为大语言模型向来擅长阅读和编写代码。
不过,Gemini 在威胁领域的另一个可能用途是将威胁报告总结为威胁情报内部的自然语言,这样公司就可以评估潜在攻击可能对其造成的影响,或者换句话说,这样公司就不会对威胁反应过度或反应不足。
Google表示,"威胁情报"还拥有一个庞大的信息网络,可在攻击发生前监控潜在威胁。它可以让用户看到网络安全的全貌,并优先关注哪些方面。Mandiant 提供监控潜在恶意群组的人工专家和与公司合作阻止攻击的顾问。VirusTotal 社区也会定期发布威胁指标。
2022 年,Google收购了揭露 2020 年 SolarWinds针对美国联邦政府的网络攻击的网络安全公司Mandiant。
该公司还计划利用 Mandiant 的专家来评估人工智能项目的安全漏洞。通过Google的安全人工智能框架,Mandiant 将测试人工智能模型的防御能力,并帮助开展红队工作。虽然人工智能模型可以帮助总结威胁和逆向工程恶意软件攻击,但模型本身有时也会成为恶意行为者的猎物。这些威胁有时包括"数据中毒",即在人工智能模型抓取的数据中添加不良代码,使模型无法响应特定提示。
Google并不是唯一一家将人工智能与网络安全相结合的公司。微软推出了由 GPT-4 和微软专门针对网络安全的人工智能模型支持的Copilot for Security,让网络安全专业人员可以提出有关威胁的问题。 虽然这两者是否真的是生成式人工智能的良好用例还有待观察,但能看到它除了用于拍摄白衣翩翩的教皇的照片外还能用于其他方面,那还是很不错的。