Anthropic

超越漏洞:Anthropic 的 Glasswing 项目部署 AI 强化全球软件

Anthropic 的 Glasswing 项目引入了一种创新的全球网络安全方法,利用先进的 AI 模型识别并消除关键软件漏洞。这项倡议源于一个认识:AI 既能编写代码,也能成为发现漏洞的强大工具,从而为日益复杂的威胁提供主动防御。通过合作,Glasswing 项目旨在为关键组织提供 AI 能力,以便在对手利用弱点之前保护基础软件。

#Anthropic#AI Safety#LLM

本文涵盖了 Anthropic 保护全球软件的倡议 | Glasswing 项目 中的主要见解。

软件漏洞的普遍性问题

Anthropic 强调,尽管大多数用户忽视软件漏洞,但开发者却持续与缺陷和漏洞作斗争。这些问题虽然通常是轻微的并能迅速修复,但偶尔也会演变为具有广泛影响的严重漏洞。Anthropic 表示,共享软件中的一个单一漏洞可能会在全球范围内放大,影响众多产品和网站。传统上,发现和修补这些漏洞的过程一直缓慢、耗时且昂贵。

推出 Claude Mythos Preview:网络安全领域的 AI

Anthropic 解释说,能够高水平编写代码的相同大型语言模型(LLMs)也可以同样有效地用于发现和利用软件漏洞。Anthropic 指出,这些模型正在从网络安全的角度提高标准,既帮助了防御者,也帮助了潜在的对手。

Anthropic 推出了他们的新模型 Claude Mythos Preview,他们很快就认识到该模型具有显著增强的网络安全能力。Anthropic 指出,尽管 Claude Mythos Preview 并非专门为网络安全训练,但其在代码方面的熟练程度使其天生擅长网络任务。Anthropic 表示,他们的实验模型在识别漏洞方面,在很大程度上与专业人类不相上下。

AI 在漏洞检测和利用方面的力量

Anthropic 强调的一个关键能力是该模型能够将多个看似微小的漏洞串联成复杂的攻击。这意味着 AI 可以识别出两个、三个、四个甚至五个漏洞的序列,当它们结合起来时,会导致重大的安全漏洞。Anthropic 将这种高级能力归因于模型的高度自主性,使其能够执行复杂的、长期的任务,类似于人类安全研究人员一整天所进行的工作。

Glasswing 项目:一项协作防御倡议

Anthropic 承认,如果这些强大的模型落入不法分子之手,可能会造成危害,并确认他们不会广泛发布 Claude Mythos Preview。为了解决这个问题,Anthropic 正在启动 Glasswing 项目,这是一项协作倡议,他们将与负责管理全球最关键代码的组织合作。该项目旨在将这些先进的 AI 工具交到关键开发者手中,让他们在识别和修复漏洞方面获得集体领先优势,比以往任何时候都快得多。

实际影响和未来展望

通过 Glasswing 项目,Anthropic 及其合作伙伴已经发现了几乎所有主要平台上的漏洞。例如,Anthropic 报告称在 OpenBSD 中发现了一个存在 27 年的漏洞,该漏洞只需少量数据即可使服务器崩溃。Anthropic 还详细介绍了发现 Linux 漏洞,这些漏洞允许非特权用户升级到管理员权限。对于每一个这些漏洞,Anthropic 强调他们都及时通知了软件维护者,后者随后部署了补丁,从而保护用户免受这些特定攻击。

Anthropic 认为该模型对于不懈维护软件的开发者来说是一个宝贵的工具,使他们能够在漏洞被利用之前发现并修复它们。他们还与美国政府的官员进行了接触,提议合作评估和防御这些先进模型带来的风险。Anthropic 最后强调,网络安全是社会安全的基础,因为现代生活日益依赖可靠的数字系统。他们强调了行业范围合作的必要性,指出任何单一实体都无法独自应对这一复杂的挑战,并预计这将是一项长期努力,可能持续数月甚至数年,以使全球的软件、客户数据、金融交易和关键基础设施更加安全。

要了解更多关于 Anthropic 的 Glasswing 项目及其对网络安全的影响,我们鼓励您观看原始视频。


本文基于 Anthropic 的一段视频。 来源:保护全球软件的倡议 | Glasswing 项目

External Intelligence

Anthropic

An initiative to secure the world's software | Project Glasswing

Watch on YouTube

Further Reading

Anthropic

AI角色的心理学:Anthropic的“功能性情绪”

Anthropic的研究探讨了AI模型为何有时会表现出情绪,这不仅仅是简单的模仿。他们利用“AI神经科学”,在语言模型中识别出了与人类情绪相对应的独特神经模式。这些“功能性情绪”虽然不是有意识的感受,但它们确实会影响AI的行为,从而塑造了像Claude这样的模型如何互动和做出决策。

Anthropic · AI Safety · LLM
LangChain

揭秘 AI 智能体:LangChain 结合 Nvidia 技术的开源蓝图

本文涵盖了 LangChain 视频《开放模型、开放运行时、开放协调器——使用 LangChain 和 Nvidia 构建您自己的 AI 智能体》中的关键见解。LangChain 推出了一款强大的开源框架,用于构建自定义 AI 智能体,其架构与 Claude Code 和 Open Claw 等高级系统相仿。该视频演示了如何结合开放模型 (Nvidia Nemotron 3 Super)、开放运行时 (Nvidia Open Shell) 和开放协调器 (LangChain Deep Agents) 来创建一个安全、可定制且持久的智能体。LangChain 表示,这种方法使开发者能够在完全开放的堆栈上构建复杂的 AI 智能体。

LangChain · AI Agent · LLM
OpenAI

深入解读 OpenAI 的模型规范:AI 行为的指导原则

OpenAI 的模型规范(Model Spec)是一份全面性文件,概述了关于其 AI 模型应如何行为的顶层决策。它是一个重要的公共接口,供用户、开发者和政策制定者理解 AI 的预期行为,在赋予用户权力的同时,平衡关键安全边界。该规范是一份动态文档,通过迭代部署、内部研究和公众反馈持续演进,以确保模型与 OpenAI 造福人类的使命保持一致。

OpenAI · GPT · LLM