5月12日消息,OpenAI 正式发布名为 Daybreak 的安全项目,旨在将安全审查机制深度整合到日常代码开发流程中。该项目的推出被视为 OpenAI 对标 Anthropic 安全路线的直接回应。
Daybreak 项目的核心理念是「安全左移」,即在代码编写阶段就嵌入安全检查,而非在模型部署后进行事后审查。OpenAI 表示,此举将帮助开发团队更早发现和修复潜在风险,提升 AI 系统的安全性和可靠性。此前 Anthropic 以「宪法AI」和多层安全框架闻名业界,OpenAI 在安全领域的投入一度被质疑力度不足。
AI 安全问题已成为行业和监管机构关注的焦点,OpenAI、Anthropic、Google DeepMind 等头部企业纷纷加码安全研究。Daybreak 项目的发布,标志着 OpenAI 正在系统性补齐安全短板,以应对日益严格的全球 AI 监管环境。