AIデイリーニュース:DeepSeekが巨大言語モデルアクセラレータFlashMLAをオープンソース化、海螺AIがI2V-01-Directorモデルを発表、Pixverse V4.0が同期サウンドエフェクトと再描画機能に対応

DeepSeekオープンソースウィーク初日に最新の技術成果FlashMLAを正式にオープンソース化しました。これはNVIDIA Hopperアーキテクチャ向けに特別に設計された高効率のマルチレイヤーアテンション(Multi-Layer Attention)デコードカーネルです。この技術は特に可変長シーケンスシナリオに最適化されており、大規模モデルの推論性能を大幅に向上させることができます。FlashMLAの核心技術特性にはBF16精度の全面サポートと、ブロックサイズ64のページングキー・バリューキャッシュ(Paged KV)が含まれています。
見出し:AIの「ゴッドマザー」李飛飛氏が設立したWorld Labsが2億3000万ドルの資金調達に成功! スタンフォード大学の教授であり、AIの「ゴッドマザー」と呼ばれる李飛飛氏の新興企業World Labsは、Andreessen Horowitz、NEA、Radical Venturesなどの著名なベンチャーキャピタルから2億3000万ドルの資金調達を行いました。この資金調達により、World Labsの評価額は10億ドルを超えました。
北米の12社のAIチップスタートアップが、生成AIのコンピューティングパワー市場に続々と参入しています。これらの企業は、大規模言語モデルのトレーニングまたは推論に特化した、様々なソリューションを提供しています。生成AIのコンピューティングパワーはホットな分野となっており、NVIDIA以外にも市場シェアを獲得する可能性があります。Cerebras、Lightmatter、Tenstorrentなど、トレーニングと推論の両方に対応する企業が含まれます。ハイリスクなチップ開発分野において、成功の鍵は製品戦略と市場への適応力にかかっています。
アマゾンは、コードネーム「Olympus」の巨大言語モデルを訓練しており、そのパラメータ数は驚異的な2兆個に達します。対照的に、OpenAIのGPT-4のパラメータ数は1兆個であるため、OlympusはGPT-4の2倍のパラメータ数を持つことになります。アマゾンは強力なクラウドコンピューティングリソースを保有しており、Olympusを通じてAI分野に大きな波を起こすことが期待されます。ただし、パラメータ数はAIモデルの強さを決定する唯一の尺度ではなく、モデルの設計や訓練データも同様に重要です。アマゾンがOlympusモデルをいつ一般公開するかは現時点では不明です。
百川智能は、閉源型の大規模言語モデルであるBaichuan-53Bを発表し、検索強化システムを導入しました。大規模言語モデルは、即時性とロングテール知識の問題に直面しており、検索強化は、大規模言語モデルがより包括的な情報を取得するのに役立ちます。王小川氏と百川智能は、検索と大規模言語モデルの融合を将来の発展重点としています。
近年、アップル社は多様性と包摂性(DEI)政策を堅持しているが、一部の株主からの挑戦に直面している。シリコンバレーで保守派勢力に対抗する数少ない企業の一つとして、アップルはその多様性政策を守る一方で、株主からの疑問や圧力にも直面している。株主たちは、会社がこれらの政策を再評価することを望んでおり、これらの政策が会社の業績に影響を与える可能性があると考えている。また、アップルが最近人工知能企業OpenAIと連携したことも論争の焦点となっている。一部の株主は、この協力がさらなる倫理的懸念を引き起こす可能性を懸念している。