人工知能競争が高まり続ける中、かつて広く恐慌を引き起こした「AIによる人類滅亡論」の予測に転機が訪れた。AIbaseによると、元OpenAIの社員で有名なAI専門家であるダニエル・ココタジロ氏は、最近、スーパーアイが人類を破壊するまでの時間を以前の予測から見直した。彼は、汎用人工知能(AGI)の進展速度が当初考えていたよりも「わずかに遅い」と述べている。

図の出典:画像はAIによって生成され、画像のライセンス提供元はMidjourney

以前、ココタジロ氏が発表した「AI2027」の予測は大きな物議を醸した。この予測では、AIが2027年に完全な自律的なプログラミングを可能にし、迅速に制御不能なスーパーアイへと進化し、2030年代半ばに人類を滅ぼすという過激なシナリオが描かれていた。この意見は米国の政治家にも引用されたが、神経科学教授のギャリー・マーカスなどの学者からは猛烈な批判を受け、「SF小説」と指摘された。

しかし、最新の現実的な反応により、この専門家は慎重さを取り戻した。AIbaseの最新の観察によると、ココタジロ氏は更新後の予測において、AIが自律的なプログラミングを実現する時期を2030年代初頭に延期し、スーパーアイの登場の窓口を約2034年に設定している。彼は、現在のAIが複雑な現実環境での性能に「不均衡」が存在することを認めている。