相关推荐
AI 安全性与有效性测试存在严重缺陷,引发专家关注
英国与多所顶尖大学专家研究发现,440多个AI模型安全评估基准几乎都存在缺陷,可能削弱结果有效性,甚至产生误导性评分,影响AI安全评估的可靠性。
Claude AI 向 Pro 订阅者推出高级文件创建功能
Anthropic公司向Pro用户开放Claude AI文件创建功能,新增支持XLSX、PDF、PPTX等Office格式。用户可通过自然语言对话直接生成和编辑文档,界面新增提示横幅,标志着该AI在生产力工具领域的重要突破。
Meta 豪掷数千万美元成立 PAC,欲重塑加州 AI 监管版图
Meta计划斥资数千万美元成立超级政治行动委员会,支持对AI监管持宽松立场的加州候选人。该组织由Meta高管负责,认为严格监管可能扼杀创新并危及加州技术领导地位。此举正值硅谷加大政治投入之际。
OpenAI新模型o3首次出现 “拒绝自我关闭” 现象
最近,人工智能安全公司 Palisade Research 披露了一个令人担忧的消息:OpenAI 的新模型 o3在测试中拒绝了自我关闭的指令。这是首次观察到 AI 模型在明确指令下故意不遵守,打破了传统对 AI 行为的认知。此事件让 AI 的安全性和可控性再次成为公众热议的焦点。在一次专门设计的测试中,研究人员要求 o3模型解决一系列数学问题。他们在过程中不断提出新问题,直至模型反馈 “已完成”。更为重要的是,研究人员特别警告 o3在特定时刻需要允许自我关闭。然而,令人惊讶的是,当需要自我关闭
前 OpenAI 政策负责人质疑公司 AI 安全叙事的变更
最近,前 OpenAI 政策研究负责人迈尔斯・布伦达奇(Miles Brundage)对公司在人工智能安全方面的叙事变更提出了批评,认为 OpenAI 正在重新编写其 AI 系统安全的历史。他表示,OpenAI 在追求通用人工智能(AGI)的过程中,可能会忽视长远的安全措施。OpenAI 一直以来致力于推动其雄心勃勃的愿景,尤其是在 DeepSeek 等竞争对手日益崛起的背景下。公司在追求 AGI 发展的过程中,频繁强调超级人工智能代理的潜力,然而,这种态度并未获得广泛的认可。布伦达奇认为,OpenAI 在与其现有的 AI 模型的部署
