アメリカのAI研究機関であるアレン人工知能研究所(AI2)は、3兆トークンという膨大なデータを含むオープンソースのデータセット「Dolma」を公開しました。
このデータセットは、AI2が開発中のオープン言語モデル「OLMo」の基盤となり、2024年初頭のリリースを目指しています。Dolmaのデータは、ウェブコンテンツ、学術論文、コード、書籍など、幅広いソースから収集されています。
現在公開されている同種のデータセットの中で、Dolmaは最大規模を誇ります。

アメリカのAI研究機関であるアレン人工知能研究所(AI2)は、3兆トークンという膨大なデータを含むオープンソースのデータセット「Dolma」を公開しました。
このデータセットは、AI2が開発中のオープン言語モデル「OLMo」の基盤となり、2024年初頭のリリースを目指しています。Dolmaのデータは、ウェブコンテンツ、学術論文、コード、書籍など、幅広いソースから収集されています。
現在公開されている同種のデータセットの中で、Dolmaは最大規模を誇ります。
AMDがvLLM-ATOMプラグインを発表。大規模言語モデル展開向けに最適化され、既存ワークフローを変えずにDeepSeek-R1やKimi-K2などの国産モデルの推論性能をAMDハードウェア上で大幅に向上。InstinctシリーズGPU向けにカスタマイズされ、vLLMフレームワークの高メモリ効率を活用し、開発者が低コストで技術移行と性能向上を実現。....
Googleのセキュリティチームが初めて、AI技術を利用して主流管理ソフトウェアの防御を回避する攻撃ツールをハッカーが開発したことを発見。このツールは「ゼロデイ」脆弱性を悪用し、開発者が未発見のため事前修正が不可能で、新たなサイバーセキュリティ脅威として注目を集めている。....
AppleのM4チップの普及によりローカルAIが進化。開発者jolaは24GBメモリ搭載のM4 MacBook Pro上でローカルAIワークフローを成功裏に導入。テスト結果によると、最適化されたQwen 3.5-9Bモデルの生成速度は1秒あたり40トークンに達し、オフライン作業やプライベートな開発に効率的なソリューションを提供する。選定においては、9Bモデルがローカルでの大規模言語モデル実行における最適解とされ、パフォーマンスとリソース要求のバランスが取れている。
ジェネレーティブAIがプログラミング分野を席巻する中、Zigオープンソースプロジェクトは逆張りの厳格な方針を導入しました。大規模言語モデルによって生成されたコードやコメントの貢献を全面的に禁止しています。有名開発者であるSimon Willisonによる解説後、コミュニティ内で技術効率と人材育成の対立が議論されています。核心的な矛盾は、コードの生成と人材の成長の選択肢にあります。Zigのメンテナーより「貢献」の定義が再評価され、独自性と学習過程の重要性が強調されました。
大規模言語モデルの推論効率に大きな進展が見込まれる。清华大学とMoonshot AIは、プリフィル即サービスという新しいアーキテクチャを共同で提案した。このアーキテクチャでは、推論プロセスをプリフィルとデコードの2つのフェーズに分割し、計算リソースの配分を最適化することで、ハードウェアの制限問題を効果的に解決し、モデルサービスのパフォーマンスを著しく向上させた。