RSAC 2024现场:谷歌展望大模型在网络安全领域的前景 | xxxRSAC 2024现场:谷歌展望大模型在网络安全领域的前景 – xxx
菜单

RSAC 2024现场:谷歌展望大模型在网络安全领域的前景

五月 8, 2024 - 安全内参

RSAC 2024现场:谷歌展望大模型在网络安全领域的前景

前情回顾·RSAC2024动态

安全内参5月8日消息,在RSAC 2024现场,谷歌深入探讨了大语言模型(LLM)在网络安全领域的应用前景。

作为谷歌和DeepMind AI网络安全技术和研究负责人,Elie Bursztein揭示了一个问题:人类距离将网络安全的控制权交给生成式AI,以执行诸如零样本内容审核、识别和修复开源代码库中的漏洞、检测并修复软件漏洞等任务,还有多远。

Bursztein表示:“虽然人们想象这一天可能即将到来,也许只需几个月,但我认为它并不会立即到来。”

在RSAC大会的一场名为“大模型如何重塑网络安全格局”的座谈会上,他告诉观众:“最终,AI将使我们(在应对AI助力对手时)重新获得优势,因为使用AI的的确确会带来许多好处。”

在野利用危险性评估

Bursztein一开始就谈到了对抗性生成式AI的在野应用情况。最令人担忧的是对手拥有传播虚假信息的能力,其次是将生成式AI用于制作令人信服的网络钓鱼邮件

安全专家目前无需担心以下新威胁:攻击者成功地利用技术创建新型恶意软件,或构建核武器、化学武器或生物武器。

RSAC 2024现场:谷歌展望大模型在网络安全领域的前景图:对当前人工智能武器化风险的评估

Bursztein表示,另一方面,大模型在网络防御方面正在逐渐成熟,具有光明的未来。

他说:“我认为我们可以尝试探讨AI的新用例,在哪些领域可以提供额外的、更深层次的层面,来增强(现有的)安全性。”

他表示,安全专家应该为当前和下一代的AI攻击做好充分的准备。

最有前景的应用场景

Bursztein在演讲中花了大量篇幅来探讨大模型的潜在应用前景,包括:

Bursztein说:“在事件响应中,时间至关重要。我们响应得越快,情况就越好,攻击的影响就越小。”

希望有一天生成式AI能够为事件建模,或者生成接近实时的事件报告,以大幅提高事件响应速度。

Bursztein表示:“通过AI辅助事件响应,我们希望能够极大地提高响应速度,使攻击者更难以为继。”

未来挑战

对于网络安全行业来说,要实现生成式AI增强的未来还有很长的路要走。

使用AI来检测和修复软件漏洞的效果参差不齐。目前,AI通过识别和缓解漏洞改善代码安全性的能力也明显不足。

Bursztein表示,漏洞检测方面存在诸多挑战,例如数据集含有噪声、难以批量识别易受攻击的代码等。在谷歌内部代码库上进行的机器学习模型实验结果不一,有些漏洞被修复了,而其他一些则被忽视。鉴于准确性和成功率的问题,AI生成的补丁在短期内能否取得成功值得怀疑。

不过,有些流程是生成式AI擅长的。Bursztein指出,使用AI进行事件响应可以将编写事件摘要所需的时间减少一半。他说:“在AI的能力和可靠性完全达到我们需要的程度之前,我们需要进行更多的研究和创新。我希望(RSA大会)能够激发人们对进入这个领域的热情。如果您还没有加入,现在应该开始考虑如何利用AI。”

参考资料:scmagazine.com

声明:本文来自安全内参,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。


Notice: Undefined variable: canUpdate in /var/www/html/wordpress/wp-content/plugins/wp-autopost-pro/wp-autopost-function.php on line 51