Sakana AIは、自然に触発されたアルゴリズムを専門とする人工知能研究ラボであり、最近、Transformer²(Transformer-squared)と呼ばれる革新的な適応型言語モデルを発表しました。このモデルは、高価な微調整なしで、推論中に動的に学習し、新しいタスクに適応できるため、大規模言語モデル(LLM)技術の重要な一歩を意味します。



Sakana AIは、自然に触発されたアルゴリズムを専門とする人工知能研究ラボであり、最近、Transformer²(Transformer-squared)と呼ばれる革新的な適応型言語モデルを発表しました。このモデルは、高価な微調整なしで、推論中に動的に学習し、新しいタスクに適応できるため、大規模言語モデル(LLM)技術の重要な一歩を意味します。


2025年10月27日、MiniMaxが大規模言語モデル「MiniMax M2」をオープンソース化。MoEアーキテクチャ採用で、エージェントワークフローとエンドツーエンドコーディングに特化。Claude Sonnet比でコスト8%、速度約2倍の高効率・高性能を実現。....
新研究は、大規模言語モデルが無意味なネット情報に継続的に触れると、推論能力と自信が低下する可能性があると警告。複数の米大学チームが「LLM脳衰退仮説」を提唱。....
アップルは推論モデル専門家を積極採用し、大規模言語モデルの欠陥解決を目指す。新アーキテクチャ開発で推論・計画・ツール活用・エージェント機能の強化に注力。....
上海AI实验室と浙江大学がIVR-Benchを開発。動画からインタラクティブなWebコードを生成する大規模言語モデルの評価基準を確立。AIフロントエンド開発における動的評価の空白を埋め、実践応用を促進。....
グーグルは今年の12月にGemini 3.0 AIモデルを発表する予定で、年末に発表する伝統を継承する。このバージョンはパフォーマンスが大きく向上すると予想され、グーグルがAI分野での競争力を持ち続けるために重要な転機と見なされている。GPT-4などのモデルとの競争においても重要なポイントとなるだろう。