人工知能分野において、大規模モデルの研究が進展しており、特に推論能力の向上が注目されています。最近、元グーグルCEOエリック・シュミット氏が投資したスタートアップ企業FutureHouseは、Ether0と呼ばれる化学タスクの推論モデルをオープンソースしました。このモデルのパラメータ規模は240億に達し、従来のドメイン固有モデルのように事前の領域特化トレーニングは不要ですが、ポストトレーニング技術を通じて強力な化学分野の能力を発揮しています。特にデータの必要量が従来のモデルと比較して大幅に減少しています。

推論モデルの応用範囲は単純な選択問題テストにとどまらず、FutureHouseチームはEther0を活用してこの状況を変え、科学的な推論研究の深化を目指しています。このモデルの構築には、大量の学術論文から化学実験データを集め、溶解度や香りといった分子特性を追跡し、それらを検証可能な科学的な問題に変換しました。

image.png

Ether0はMistral-Small-24Bアーキテクチャに基づいており、強化学習でトレーニングされました。64万7,300件以上の化学に関する実験データに関連する質問を処理し、18種類のタスクをカバーしています。例えば、合成可能性、血脳関門の透過性、香りの分析などです。モデルのパフォーマンス向上のために、研究チームは推論行動の蒸留や動的なカリキュラム学習などの技術を取り入れました。

性能評価では、Ether0は幅広い一般大言語モデル(Claude、o1など)や化学専用モデル(ChemDFM、TxGemmaなど)と比較され、結果としてEther0は開放型回答(OA)カテゴリで最も高い正確さを示しました。また、選択問題(MCQ)でも強い競争力を発揮しました。一部のタスクでは、競合他社のモデルよりも2倍以上の正確さを達成しました。

さらに、Ether0はトレーニングコスト面でも優れた点を示しています。従来の非推論型モデルと比較して、同等の反応予測精度を得るためには50倍以上のデータが必要でした。また、独立したベンチマークテストでは他のモデルや人間との交差検証は難しいものの、未学習の分子構造についても効果的に推論を行うことができます。

総じて、Ether0は自然言語での質問を理解し、自然言語による推論を行い、最終的に分子構造を生成することができます。特に薬理活性分子の設計に非常に優れています。現在はプロトタイプ段階にありますが、今後の汎用科学推論モデルの基盤を確立する上で重要な役割を果たしています。

要点:

🌟 Ether0はFutureHouseによって公開された240億パラメータの化学推論モデルです。

📈 このモデルの正確さは、多くのタスクでGPT-4.1やDeepSeek-R1などの先行モデルを上回っています。

💰 伝統的な非推論型モデルと比べてEther0のトレーニングに必要なデータ量は著しく少ないです。