今週開催されたSIGGRAPHカンファレンスで、MetaのCEOマーク・ザッカーバーグは、同社が昨年発表した画期的な画像セグメンテーションモデルのアップグレード版であるSegment Anything 2(SA2)を初公開しました。この新しいモデルは、AI駆動のセグメンテーション技術をビデオ領域に拡張し、この技術が過去1年間に驚異的な進歩を遂げたことを示しています。
SA2は前身の利点を継承し、ビデオ内のあらゆる物体を迅速かつ確実に識別して輪郭を描くことができます。静止画のみに対応していた元のモデルとは異なり、SA2はビデオ処理向けに最適化されています。ザッカーバーグ氏は、NVIDIAのCEOであるジェンスン・フアン氏との対談で、この進歩の重要性を強調しました。「ビデオでこれを実現し、しかも何も撮影することなく、欲しいものを伝えられるというのは、非常にクールです。」
ビデオ処理は計算資源の要求が高いにもかかわらず、SA2は著しい効率の向上を示しています。このモデルは大規模データセンターに依存することなく動作でき、AI業界における効率性の全体的な進歩を反映しています。
Meta以前の取り組みと一貫して、SA2はオープンソースとして公開され、研究者や開発者が無料で利用できます。このモデルの開発を支援するために、Metaは5万個の注釈付きビデオを含む大規模データベースも公開しました。
ザッカーバーグ氏は、Metaがオープンソース戦略を堅持する理由について、次のように説明しました。「これは単に構築できるソフトウェアではありません。その周囲にエコシステムが必要です。もし私たちがオープンソース化しなければ、それほど便利にはならなかったでしょう。」彼は、この戦略はエコシステム全体に利益をもたらすだけでなく、Meta自身の製品の品質向上にも役立つと述べています。
SA2の発表は、Metaが「オープン」AI分野におけるリーダーシップを改めて示すものです。「オープン性」の程度については依然として議論がありますが、LLaMaやSegment Anythingなどのモデルは、AI性能の重要な基準となっています。
SA2の登場により、AIビデオ分析技術は、研究、環境監視など多くの分野でより大きな役割を果たすでしょう。この進歩は、AI技術の急速な発展を示すだけでなく、将来の応用にも新たな可能性を開きます。
