相关推荐
富士通推出 Takane 大型语言模型,助力企业智能化升级
最近,富士通正式发布了名为 “Takane” 的大型语言模型(LLM),这款模型特别为企业用户打造,旨在满足安全私密环境下的需求。Takane 是与 Cohere 公司合作开发的,取得了在日本通用语言理解评估(JGLUE)基准测试中 “世界领先” 的成绩,这让不少业内人士为之振奋。图源备注:图片由AI生成,图片授权服务商Midjourney据悉,富士通将把这个新模型整合进其生成式人工智能服务,具体应用于富士通的 Kozuchi 平台上。这意味着企业用户可以借助 Takane,提升自己的数据处理和自然语言理解能力
富士通为推动50亿美元人工智能计划加速出售空调业务股权
["富士通计划加速出售7.3亿美元空调业务股权,以支持50亿美元人工智能服务扩张计划。","公司正与多家潜在买家谈判,包括贝恩资本和科尔伯格·克拉维斯·罗伯茨公司。","富士通力求成为数字时代科技巨头,提供AI服务助制造商提高效率、减排,并在生产和物流中计算最佳方案。","除空调业务外,富士通还计划出售电池制造子公司和芯片封装子公司。"]
富士通推出面向AI和数据中心的新一代CPU芯片Monaka
["富士通正在研发下一代AI、HPC和数据中心处理器Monaka,采用150个Armv9核心。","Monaka将采用2纳米工艺,预计2027年上市。","Monaka配备SVE2指令集,支持DDR5内存和PCIe 6.0接口。","Monaka采用3D芯片设计,通过分离架构实现可扩展性。","Monaka定位为AI和数据中心处理器,提升能效是其关键特性之一。"]
Vision-R1:强化学习助力视觉定位,图文模型性能提升 50%
近日,中国科学院自动化研究所与中科紫东太初团队联手推出了一种新方法 ——Vision-R1,利用类 R1强化学习技术,显著提升了视觉定位的能力。这个方法不仅在目标检测和视觉定位等复杂任务上实现了50% 的性能提升,甚至超过了参数规模超过10倍的现有最优模型(SOTA)。当前,图文大模型通常依赖 “预训练 + 监督微调” 的方法来提高对用户指令的响应能力,但这种方法在资源消耗和训练效率上都存在较大挑战。Vision-R1通过结合高质量的指令对齐数据和强化学习,创新性地改变了这一局面
Sync Labs 发布 Lipsync-2:全球首个零-shot的嘴型同步模型
人工智能技术公司 Sync Labs 近日通过 Twitter 宣布推出其最新产品 Lipsync-2,这款模型被誉为“全球首个零-shot嘴型同步模型”,无需额外训练或微调即可保留演讲者的独特风格。这一突破性技术在真实感、表现力、控制力、质量和速度方面均实现了显著提升,适用于真人视频、动画以及AI生成的内容。Lipsync-2的创新特性根据 Sync Labs 在4月1日发布的 Twitter 消息,Lipsync-2的核心亮点在于其“零-shot”能力,即无需针对特定演讲者进行预训练,模型便可即时学习并生成符合其独特说话风格的嘴型同步
