「シグマ点」に関するロマンチックな記事の中で、OpenAIの最高経営責任者であるサム・オットマンは、偶然にも人工知能のエネルギー消費に関する興味深い詳細を明らかにしました。単一のChatGPTリクエストが平均で0.34ワット時もの電力を消費し、0.000085ガロンの水を使用していることがわかりました。この数値は一見すると些細に聞こえますが、2009年のGoogle検索のエネルギー消費量とほぼ同等であり、オットマンが「低エネルギー消費」と強調する一方で、彼が見逃した重要な要素があります。それは、ChatGPTが処理するリクエストの1人あたりの量が、当時のGoogle検索の平均よりも遥かに多い可能性があることです。
オットマンの「ロマンチックな」表現は、技術革新によるエネルギー効率向上を強調しようとしているのかもしれませんが、マルチモーダルシステムやスマートエージェント、高度な推論エンジンなど新しいタイプの人工知能モデルが計算能力に求めている爆発的な成長を考慮すると、データセンターやその他のインフラの急速な拡張が現実問題となっています。これらの巨大なインフラの建設と運営には、人工知能システム全体のエネルギー消費量が引き続き増加することを示しています。
ChatGPTの単一のクエリ消費エネルギーを過去のGoogle検索と単純に比較することはできません。現在の人工知能アプリケーションが処理する膨大なタスク量や複雑さを考えると、テキスト生成や画像認識、さらにはより複雑な意思決定支援まで、すべてのプロセスが高い計算能力を必要としています。このような計算力への無限の要求により、データセンターは急速に拡張する一方で、エネルギー供給に対する大きな課題も抱えています。
したがって、オットマンが言及したChatGPTのエネルギー消費データは、安心感を与える数字というよりはむしろ警告です。これにより、人工知能の無限の潜在能力を追求する際、その急速に増加するエネルギー消費をどのように効果的に管理し、削減するかが、将来の技術発展において避けて通れない重大なテーマであることを考えさせられます。これは単なる技術的な挑戦ではなく、持続可能な開発や世界的なエネルギー戦略の計画に関わる重要な課題でもあります。