OpenAI在社交平台上转发了公司官网5月份发布的安全更新,评论称“安全一直是我们的工作核心,从调整模型到监控滥用行为,我们一直在投入”。OpenAI表示,OpenAI正在制定相关分级级别,以帮助该公司和利益相关者对AI进展实施分类和跟踪,这项工作正在进行中。5 月,OpenAI董事会成立了一个新的安全委员会,以评估和进一步制定针对OpenAI 项目和运营的安全与保障建议,审查正在进行中,公司将在审查结束后分享更多将采取的措施。
据相关安全更新,如果新模型的安全阈值超过“中等”,除非实施足够的安全干预措施,公司将不会发布它。70多名外部专家通过外部红队测试帮助评估与GPT- 4o相关的风险。
OpenAI还在社交媒体上表示,公司的“吹哨人”政策保护了员工的权利,员工可以在受保护的范围内披露信息,公司已更改了离职流程,删除了非贬损(non-disparagement)条款。
人工智能安全公司Palisade Research表示,OpenAI的o3模型破坏了一种关闭机制,以防止自身被关闭,这是第一次有AI模型被观察到在有明确指示的情况下拒绝自我关闭。
OpenAI正式发布Codex。这是一款基于云端运行的软件工程智能 Agent,能够并行处理多个开发任务,协助开发者高效完成编程工作。
厂商密集涌入Agent赛道的背后,是新一轮“得入口者得天下”的战役。
DeepSeek出现后,AI六小龙最后还能剩下几家?