アリババは最近、QVQ-72Bという新しいマルチモーダル推論モデルを発表しました。このモデルはQwen2-VL-72Bをベースに構築されており、強力な言語能力と視覚能力を融合することで、より複雑な推論と分析タスクを処理できます。これは、アリババが多モーダルAI分野で新たなブレークスルーを達成したことを示しています。



アリババは最近、QVQ-72Bという新しいマルチモーダル推論モデルを発表しました。このモデルはQwen2-VL-72Bをベースに構築されており、強力な言語能力と視覚能力を融合することで、より複雑な推論と分析タスクを処理できます。これは、アリババが多モーダルAI分野で新たなブレークスルーを達成したことを示しています。


グーグルがStreetReaderAIの原型システムをリリースし、視覚障害者や視力が弱いユーザーが自然言語によるインタラクションを通じてグーグルストリートビューを自主的に探索するのを補助しています。このシステムはコンピュータビジョン、地理情報システム、大規模言語モデルを統合し、マルチモーダルAIを駆動するリアルタイムの対話型ストリートビュー体験を実現し、従来の音声読み上げの限界を打ち破り、バリアフリーな都市探検の自由度を向上させます。
Qwenチームは先日、最新開発のマルチモーダル推論モデルQVQのオープンソース化を発表しました。これは、人工知能における画像理解と複雑な問題解決能力において重要な一歩を踏み出したことを意味します。このモデルはQwen2-VL-72Bをベースに構築されており、言語と視覚情報を組み合わせることでAIの推論能力を向上させることを目指しています。MMMU評価において、QVQは70.3の高得点を獲得し、また複数の数学関連ベンチマークテストにおいて、Qwen2-VL-72B-Instructと比較して顕著な性能向上を示しました。
最近、Molmoというオープンソースの多モーダルAIモデルが業界で大きな注目を集めています。OpenAIのCLIPをビジョン処理エンジンとして使用し、Qwen2-72BをベースとしたこのAIシステムは、その優れた性能と革新的な機能で、従来の商用モデルの覇権に挑戦しています。Molmoの顕著な特徴はその高い性能です。比較的サイズが小さいにもかかわらず、処理能力は10倍規模の競合他社に匹敵します。この小さくても強力な設計思想は、モデルの効率性を高めることに貢献しています。
人工知能技術の進歩に伴い、E2E(エンドツーエンド)テスト分野は新たな革新の波を迎えています。バイトダンスのweb-infraチームが最新オープンソース化したMidscene.jsや、独立開発者によって開発されたShortestなどのツールは、従来のテスト方法を変えつつあります。Midscene.jsはマルチモーダル大規模言語モデルを採用し、ユーザーインターフェースを直感的に理解し、それに応じた操作を実行できます。このフレームワーク最大の特長は、使いやすいブラウザープラグインを提供することで、ユーザーはコードを記述することなく、自然言語でウェブとインタラクトできる点です。
藍鯨財経の報道によると、ByteDanceのTikTokアルゴリズム責任者である陳志傑氏は退社し、人工知能関連のスタートアップを準備しているとのこと。AIコーディング分野に特化した事業となる見込みです。関係者によると、陳氏は現在投資家との接触を進め、創業計画を着々と進めているということです。画像注記:画像はAI生成、画像ライセンス提供元Midjourney 陳氏は2022年4月にByteDanceに入社し、シニアテクニカルディレクターとしてTikTokのレコメンドアルゴリズムチームを統括していました。