クアルコム社は、新世代の人工知能チップであるAI200とAI250を正式に発表しました。この取り組みは、市場リーダーであるNVIDIAに挑戦するためのものです。今回の発表は広範な注目を集め、会社の株価は20%以上上昇しました。
クアルコムのAI200チップは、ラックレベルのAI推論向けに設計されたソリューションであり、総所有コスト(TCO)を削減し、パフォーマンスを向上させることを目的としています。このチップは768GBのLPDDRメモリをサポートしており、このようなメモリ容量と低コストにより、大規模言語モデル(LLM)やマルチモーダルモデル(LMM)の推論に対して強力なサポートを提供します。

一方で、クアルコムのAI250は、近メモリ計算(near-memory computing)のイノベーティブなアーキテクチャを採用しています。このアーキテクチャにより、メモリバンド幅が10倍以上となり、同時に消費電力を大幅に削減し、AI推論タスクの効率とパフォーマンスを向上させます。2つのチップとも液体冷卻技術を搭載し、放熱効果を高めています。
ハードウェアだけでなく、クアルコムはAIソフトウェアスタックも全面的にリリースしました。これは、アプリケーション層からシステムソフトウェア層までのすべての内容をカバーし、AI推論に最適化されています。開発者は、クアルコムのEfficient Transformers LibraryとAI推論キットを通じて、モデルのデプロイと管理を簡単に実現できます。このソフトウェアスタックは多くの主流の機械学習フレームワークおよび推論エンジンをサポートしており、AIアプリケーションの開発には豊富なツール、ライブラリ、APIを提供します。
クアルコムのAI200とAI250は、2026年と2027年に商用化される予定です。今回の発表は、クアルコムがAI分野における意欲を示すものであり、市場からの高い注目を集めました。
ポイント:
🌟 クアルコムはAI200とAI250チップを発表し、市場リーダーのNVIDIAに挑戦しています。
📈 新しいチップの発表により、クアルコムの株価は20%以上上昇しました。
🖥️ 新チップは液体冷卻技術を備え、さまざまなAI推論アプリケーションおよびツールをサポートしています。
