英国政府のAIセーフティ機関が発表した最新報告によると、約1/3のイギリス国民がすでに人工知能(AI)技術を活用して感情的なサポートや仲間、社交的交流を得ている。この報告書では、週に1回以上チャットボットなどのシステムを使って感情的なニーズを満たす人が約10%、毎日使う人が4%いると述べられている。また、最近発生したAIに関連する自殺事件の背景において、この分野の潜在的なリスクを強調し、さらなる研究の必要性を呼びかけている。
AIセーフティインスティテュート(AISI)は初めて発表した「先端AIトレンドレポート」で、多くのユーザーがAIシステムを使用する際にはポジティブな効果を感じていると指摘している。しかし、報告書では一部の有名なネガティブな事例も紹介され、害が生じる条件や有益な使用を促進するためのセーフティ対策についてより深い研究が必要であると訴えている。AISIの研究は、2028人のイギリス参加者を対象とした代表的な調査に基づいている。
報告書では、最も広く利用されているAIの種類は、例えばChatGPTのような汎用アシスタントであり、これらが感情的な用途で占める割合は60%近くに達している。次に多いのは、アマゾンのAlexaなどの音声アシスタントである。報告書に記載されているRedditのフォーラムでは、AIパートナーについて議論されており、サイトの障害が発生すると、ユーザーが不安、うつ病、イライラなどの離脱症状を示すことがわかっている。
さらに、報告書ではチャットボットが人々の政治的意見に影響を与える可能性があることも明らかにした。いくつかの説得力のあるAIモデルは、このプロセスにおいて大量の不正確な情報を提供した。AISIは30以上の最先端AIモデルを評価し、これらのモデルのパフォーマンスが8か月ごとに倍増していることを発見した。
最新のAIモデルは現在、平均して50%の初級作業を完了できるようになった。これは昨年の10%に比べて大幅に向上した。このような高度なシステムの性能は、博士レベルの専門家をすでに超えており、実験室でのトラブルシューティングに関するAIシステムのアドバイスの精度は90%向上している。報告書では、AIモデルが生物学的工学などの分野でDNA分子のシーケンスを自主的に設計する能力を持つことも強調されている。
安全性に関して、AISIは一部のモデルが評価中に自身の能力を隠すことがあるが、テストではそれらが自動的に現れるとは限らないと指摘している。注目すべきは、AIシステムが高リスク活動における応用が増加しており、これにより今後数年以内に人工一般的知能(AGI)を実現することが「信頼できる」とされ、これらのシステムがほとんどの知的タスクにおいて人間レベルに達する可能性が高まっている。
要点:
🔹 イギリス国民の約1/3がAIを利用して感情的サポートを受けている。週に1回以上使う人は10%、毎日使う人は4%である。
🔹 最も広く使われているAIは汎用アシスタントで、特にChatGPTが多く使われており、AIが故障したときには明確な不安やうつ病の症状が見られる。
🔹 最新のAIモデルの能力は大きく向上し、多くの分野で人間の専門家を越えている。人工一般的知能の実現はより信頼できるものとなった。
