関連推奨
百度がモデル委員会(BMC)を設立し、BMUとAMUを統合して研究開発の一体化を実現する
百度は5月15日、大規模モデルの研究開発と実装を統括する百度モデル委員会(BMC)を設立。基礎モデル研究開発部と応用モデル研究開発部を統合し、「技術応用一体化」を推進することで、技術探索から業務応用までの全工程のクローズドループを実現し、大規模モデル戦略を効率的に推進する段階に入ったことを示す。....
鄭州のマイクロショートフィルム業界でAI応用が盛り上がり、業界自主規約が正式に発表されました!
鄭州高新区で「中原智視聴、高新創未来」アリババクラウドAI創享日イベントが開催され、AI技術によるマイクロドラマ制作の変革に焦点を当てました。イベントの目玉は「河南省マイクロドラマ業界AI技術応用自律公約」の発表であり、業界応用の規範化と技術とコンテンツ革新の融合を促進することを目的としています。....
ソフトバンク、OpenAI株の価値上昇により利益が116億ドルに急増!その背後にはどのような秘密があるのか?
ソフトバンクグループの第1四半期純利益は1.83兆円(約116億ドル)に達し、前年同期比3倍以上に増加。主な要因は、保有するOpenAIの株式評価額がAI技術の発展で急上昇し、多額の利益をもたらしたことにある。....
国内大規模モデルの加速:AMDがvLLM-ATOMプラグインを発表、推論効率を大幅に向上
AMDがvLLM-ATOMプラグインを発表。大規模言語モデル展開向けに最適化され、既存ワークフローを変えずにDeepSeek-R1やKimi-K2などの国産モデルの推論性能をAMDハードウェア上で大幅に向上。InstinctシリーズGPU向けにカスタマイズされ、vLLMフレームワークの高メモリ効率を活用し、開発者が低コストで技術移行と性能向上を実現。....
百度がErnie5.1を発表:事前訓練コストが94%低下、性能は世界のSearchランキング上位4位に到達
百度は2026年5月11日に新世代言語モデルであるErnie5.1を発表しました。2.4兆パラメーターを持つErnie5.0の事前訓練ベースを基盤としています。「一度きりの柔軟なトレーニングフレームワーク」により、単一のトレーニングで複数サイズのモデルを最適化することが可能となり、事前訓練コストは同類モデルの6%にとどまります。5月9日時点でのArena Searchランキングでは、このモデルは1223点で世界第4位、中国第1位を記録し、高いリソース利用効率とパフォーマンスのバランスを示しています。
