Sakana AIは、自然に触発されたアルゴリズムを専門とする人工知能研究ラボであり、最近、Transformer²(Transformer-squared)と呼ばれる革新的な適応型言語モデルを発表しました。このモデルは、高価な微調整なしで、推論中に動的に学習し、新しいタスクに適応できるため、大規模言語モデル(LLM)技術の重要な一歩を意味します。



Sakana AIは、自然に触発されたアルゴリズムを専門とする人工知能研究ラボであり、最近、Transformer²(Transformer-squared)と呼ばれる革新的な適応型言語モデルを発表しました。このモデルは、高価な微調整なしで、推論中に動的に学習し、新しいタスクに適応できるため、大規模言語モデル(LLM)技術の重要な一歩を意味します。


ウィキペディアは公式に、大規模言語モデルを用いて記事の内容を生成または再編集することを禁止し、以前のAIに対する曖昧な態度を終了しました。新しいポリシーはボランティア編集者によって圧倒的な支持を得ました。これは、情報の信頼性を維持し、AIによる正確でないまたは模倣されたコンテンツを防ぐためです。
ウィキペディア、3月26日の投票で新編集ポリシーを正式導入。大規模言語モデルによる記事生成・改変を明確に禁止し、内容の正確性確保と人間編集者の主導権強化を図る。....
iPhone 17 Proが4000億パラメータの大規模モデルを実行し、ハードウェア制限を突破。12GBメモリで通常200GB必要なモデルを、フラッシュメモリ転送と混合専門家モデル技術により実現。....
Metaは技術的課題による性能最適化の遅れからLlama4のリリースを5月に延期。同モデルはMetaのAI戦略の要であり、延期はOpenAIなどとの競争に影響する可能性。....
2026年3月12日、xAIは新世代の大規模言語モデルGrok4.20 Betaを発表しました。このモデルは価格の競争力がある一方で、非常に高い事実の信頼性により業界記録を達成しました。推論機能を有効化したインテリジェンス指数評価では、Grok4.20は48点を獲得し、前バージョンより6点上昇しました。ただし、総合ベンチマークスコア(57点)はGemini3.1Pro PreviewやGPT-5.4に少し劣るものの、AA全知テストでは優れた成績を収め、非幻覚率が78%に達しました。