人工知能チップの新興企業EnCharge AIは、類似メモリ計算技術に基づくAIアクセラレーターEN100を発表しました。この製品は、AI計算がデータセンタに依存する状況を打破し、先進的なAI機能をノートパソコンやエッジデバイスにも直接搭載することを目指しています。

技術的革新: 20倍のエネルギー効率向上

EN100はEnCharge AI独自の類似メモリ計算アーキテクチャを採用しており、さまざまなAIワークロードにおいて、競合製品のソリューションと比べて最大20倍のエネルギー効率の向上を実現します。このチップは、最も先進的なAIモデルの動作に必要なエネルギー消費量が電球一つ分以下であり、従来のAI計算のエネルギー消費パターンを根本的に変革しています。

「EN100は人工知能計算アーキテクチャの根本的な転換点を示しています」と、EnCharge AIのCEOであるNaveen Vermaは述べています。「これは、先進的で安全かつパーソナライズされた人工知能がクラウドインフラストラクチャに依存することなくローカルで動作できるということです。これにより、人工知能の応用範囲が大幅に広がることを期待しています。」

GPU チップ (7)

複数のバージョンで異なるニーズに対応

EN100には、異なる用途に合わせた二つの仕様があります:

ノートパソコン用M.2版: 最大200+ TOPSのAI計算能力を8.25Wの電力消費内で提供し、ノートパソコン上で複雑なAIアプリケーションを実行しながらもバッテリーの持ちや携帯性を犠牲にしません。

ワークステーション用PCIe版: 四つのNPUを装備し、約1PetaOPSの計算能力を提供します。低コストかつ低消費電力でGPU級の計算能力を実現し、複雑なモデルや大規模なデータセットを使用するプロフェッショナル向けのAIアプリケーションに特化しています。

高い計算密度を実現

EnCharge AIの類似メモリ計算方式により、同社のチップの計算密度は約30TOPS/mm²に達し、従来のデジタルアーキテクチャの3TOPS/mm²を大きく上回っています。この利点により、OEMメーカーは装置のサイズ、重量、形状を犠牲にすることなく強力なAI機能を組み込むことができます。

堅固な資金と技術的背景

EnCharge AIはこれまでに1億4400万ドル以上の資金を集め、投資家にはTiger Global Management、Samsung Ventures、IQTなどの有名な機関が含まれます。同社は2022年にプリンストン大学からスピンオフされ、創設者のNaveen Vermaがプリンストン大学で7年以上にわたり取り組んだ次世代計算アーキテクチャの研究成果を基盤としています。

2024年3月には、同社はプリンストン大学と協力して、高速で省エネかつ拡張可能なメモリ計算アクセラレーターの開発のためにDARPAから1860万ドルの助成金を獲得しました。

業界の課題解決

人工知能モデルの規模や複雑さが指数関数的に増加するにつれて、従来の計算アーキテクチャは深刻なボトルネックに直面しています。国際エネルギー機関(IEA)は、2026年のデータセンターの電力消費量が2022年比で2倍になることを予測しており、これは現在の日本の総電力消費量に相当します。EnCharge AIの技術はこのエネルギー危機への解決策を提供します。

市場展開計画

EN100の最初の早期アクセスプログラムはすでに満席ですが、興味のある開発者やOEMメーカーは、www.encharge.ai/en100に登録することで、間もなく始まる次の早期アクセスプログラムについて情報を得ることができます。早期採用パートナーはすでにEnChargeと協力し、EN100が常時接続型のマルチモードAIエージェントや強化されたゲームアプリケーションなどでの利用について計画を進めています。

現在66人のスタッフを擁するEnCharge AIは、AI PCおよびエッジデバイス市場の急速な成長に注力しており、これらの分野ではそのエネルギー効率の優位性が最も顕著です。これにより、AI計算の実施方法と展開場所が根本的に変わることを目指しています。