最近,AI界多位大佬在线上展开激烈讨论,围绕人工智能可能存在的风险、是否需要监管等问题针锋相对。以吴恩达和Hinton为代表的两派人分别表达了不同观点。吴恩达等人主张开放创新,认为过度监管会扼杀创新;Hinton等人则提出AI潜在风险,需要谨慎对待。此事引发广泛关注,凸显AI监管问题的复杂性,需要在技术进步和社会风险之间找到平衡。
相关推荐
仅需250份文件!AI模型也能被 “洗脑” 的惊人发现
最新研究显示,ChatGPT等大语言模型易受数据中毒攻击,仅需约250份污染文件即可植入后门,改变模型回应,暴露AI安全脆弱性,引发对现有防护措施的反思。
2025年10月20号 9:08
141.4k
Anthropic 突破性发现:仅250份中毒文件即可攻破大型 AI 模型
研究表明,仅需250份投毒文件即可在大型语言模型中植入后门,且攻击效果与模型大小无关。测试涵盖6亿至130亿参数模型,发现即使使用更干净数据训练的大模型,所需中毒文档数量不变,挑战了传统认知。
2025年10月11号 9:45
147.0k
OpenAI 被指通过警方施压 AI 监管倡导者
OpenAI被指控派警察到AI监管倡导者Nathan Calvin家中递送传票,要求其提供个人信息。Calvin是Encode AI组织律师,致力于推动AI政策。他在社交媒体披露,事件发生在与妻子准备晚餐时,警长助理上门送达传票,内容涉及组织事务及加州立法相关个人资料。
2025年10月11号 9:12
102.0k
阿里云发布安全护栏新宠Qwen3Guard 旨在为人工智能提供可靠的安全保障
阿里云通义团队9月28日推出Qwen3Guard,这是Qwen家族首款安全护栏模型。基于Qwen3架构专项微调,旨在提升AI交互安全性,精准识别用户输入和AI回复中的潜在风险,提供可靠防护。
2025年9月29号 9:03
155.4k
华为与浙大携手发布 DeepSeek-R1-Safe 大模型:AI安全与性能完美平衡
在刚刚结束的华为全联接大会上,华为技术有限公司联合浙江大学推出了国内首个基于昇腾千卡算力平台的基础大模型 ——DeepSeek-R1-Safe。这一创新性产品旨在解决当前 AI 领域面临的安全与性能问题,开创了智能科技的新篇章。浙江大学计算机科学与技术学院的院长任奎在会上详细介绍了这一模型的核心创新。DeepSeek-R1-Safe 是通过一个全流程的安全后训练框架构建而成,涵盖了高质量的安全语料库、平衡优化的安全训练以及自主创新的软硬件平台。这一框架的设计旨在从底层解决 AI 模型在
2025年9月22号 10:32
147.1k
