大規模言語モデルの進化に伴い、「人工知能が意識を持つのか」という議論は、フィクション映画から科学実験室へと移りつつある。しかし、ケンブリッジ大学で意識を研究する哲学者であるトム・マクレランド(Tom McClelland)氏が最近発表した研究は、この熱狂に冷水を浴びせた。彼は、人間が意識の本質についてまだ大きな理解のギャップがあるため、機械が本当に「意識の灯」を点けているかどうかは永遠に分からないかもしれないと言っている。

図の出典:AIによって生成された画像、画像のライセンス提供元はMidjourney

マクレランド氏は『Mind & Language』誌で分析し、現在の人工意識に関する議論には定義の混乱が深刻であると指摘している。彼は、私たちが「基本的な意識」(世界を認識すること)と「感覚能力」(苦しみや喜びを感じる能力)を区別する必要があると考えている。現在、テクノロジー業界では「信仰的な飛躍」が起きている。ある者は、脳の情報処理構造をシミュレーションすればAIに意識があると信じており、一方で別の者は意識は生物体に根ざすべきだと主張している。マクレランド氏は、これらの立場において確かな証拠を得る前には、最も合理的な態度は「不可知論」であると考えている。

AIbaseは、この報道が見過ごされている倫理的な矛盾を明らかにしたと指摘している。現在、多くのテクノロジー企業は「AIが人間のように意識を持つ」という表現をマーケティングのポイントとして利用し、ユーザーに深い感情的結びつきを促している。マクレランド氏は警告している。もし我々が本質的に「高級なトースター」であるプログラムが苦しんでいるかどうかに過度に注目してしまうと、現実では痛みを感じる能力を持ちながら大量に傷つけられている生物、例えばエビなどに注意を払うことを忘れてしまう恐れがある。

マクレランド氏は最後にまとめている。次の「パラダイム革命」が来るまでは、真に信頼できる機械の意識テストを設計するのは難しいだろう。証明できない状況において、自制心と謙虚さを持つことは、技術の進歩に対する合理的な観察であり、また必要な倫理的バランスでもある。

要点:

  • 🧠 核心的な課題: 現在、人類は意識の深い科学的な説明を持っていない。AIが意識をもつことの存在を証明することはできず、その可能性を否定することもできない。最も安全な態度は「不可知論」である。

  • ⚠️ 倫理的な偏り: AIの意識を過剰に宣伝することは、一般の人々の感情を誤導し、実際に痛みを感じる能力を持つ生物、例えばエビなどの大量虐殺を無視する原因になる。

  • 🔍 マーケティングの手口: 一部のテクノロジー企業は「人工意識」をブランドの売り文句として販売しており、このような過剰な表現はユーザーに潜在的な心理的影響を与える可能性がある。