今日,百度文心一言向用户限量免费发放“会员体验卡”,领取后用户可免费体验7次文心大模型4.0Turbo。
需要注意的是,如用户在30天内领取过该福利,或已经领取过其它体验卡,暂不支持领取该卡。领取后请在7日内使用。

据悉,文心大模型4.0Turbo在速度和效果上都有所提升,它通过数据、基础模型、对齐技术、提示、知识增强、检索增强和对话增强等核心技术的持续创新,以及飞桨文心的联合优化,实现了更快的处理速度和更好的性能。
中国生成式AI竞争进入用户争夺新阶段。百度“文心一言”月活突破2亿,成为首个进入“两亿俱乐部”的国产大模型。阿里巴巴“通义千问”上线两个月月活超1亿,增长迅猛。百度采取“全域融合”策略,将AI能力全面融入搜索等核心产品,加速应用落地。
百度发布新一代文心大模型ERNIE-5.0-0110,在LMArena全球文本排行榜中以1460分位列第八,是唯一进入前十的中国国产大模型。其数学处理能力尤为突出,已升至全球第二,仅次于GPT-5.2-High。
百度发布文心大模型ERNIE-5.0-0110,在LMArena全球文本能力榜中位列第八,是唯一进入前十的国产模型。其在数学推理领域表现尤为突出,排名全球第二,仅次于未公开的GPT-5.2-High,展现了国产大模型在专业领域的突破。
百度创始人李彦宏在2025世界大会上表示,百度已通过AI彻底重构搜索引擎,从传统文字链接转向以图片、视频为主的多媒体应用,成为全球AI化最激进的搜索引擎公司。
近日,百度旗下文心大模型家族迎来重大升级——ERNIE-4.5-21B-A3B-Thinking正式开源,并在Hugging Face平台迅速登顶文本生成模型榜单首位,同时位居整体模型榜第三。这款轻量级Mixture-of-Experts(MoE)模型以其卓越的推理能力和参数效率,引发行业广泛关注,标志着中国AI开源生态的又一里程碑。模型核心规格与创新设计ERNIE-4.5-21B-A3B-Thinking采用先进的MoE架构,总参数规模为21B,但每个token仅激活3B参数。这种稀疏激活机制显著降低了计算开销,同时保持了高性能输出。该模型支持128K长上下文窗口