先日、世界初のAI安全サミットが英国ブレッチリー・パークで成功裏に開催され、中国と米国を含む28カ国の代表が出席し、「ブレッチリーAI宣言」に署名しました。この宣言は、AI研究機関と企業が責任ある方法でAIを設計、開発、使用することを求めています。宣言では、AIが人々の生活を改善する大きな可能性を認めつつも、AI開発がもたらす可能性のある危害についても警告し、規制などの手段を通じてリスクを回避することを目指しています。2日間にわたる会議には、各国政府代表、国際機関、研究機関、企業などが積極的に参加し、AI技術がもたらすリスクについて重点的に議論しました。中国など各国は、AI安全分野における国際協力と交流を強化し、グローバルガバナンスに関する共通認識の枠組みを共同で構築する意思を示しました。
関連推奨
元OpenAIの重鎮が設立したSSI、10億ドルを調達し3ヶ月で50億ドルの評価額に
元OpenAIの最高科学責任者Ilya Sutskever氏によって設立されたSafe Superintelligence(SSI)は、安全で人間を超える能力を持つAIシステムの開発を目指しています。同社は10億ドルを調達し、評価額は50億ドルに達しました。市場への早期参入ではなく、AIの安全性と超知能技術の研究開発に重点を置いています。SSIは倫理観と可能性を重視した採用基準を採用し、革新的な思考を通じてAI技術が将来人類に役立ち、リスクを軽減することを目指しています。Ilya Suts氏率いる…
研究団体が基礎モデル開発のグローバル停止を要請、AIによる人類生存への脅威を懸念
非営利研究団体である機械知能研究所(MIRI)は、安全上の問題が人類の生存を脅かす可能性があるとして、基礎モデルまたは「最先端」モデルの研究を世界的に停止するよう呼びかけています。基礎モデルとは、さまざまな形態に応用できる人工知能システムのことです。MIRIは、基礎モデルが人間よりも賢くなり、「人類を滅ぼす」可能性があると主張しています。
OpenAI前最高科学責任者Ilya Sutskever氏、新AI企業SSIを設立
OpenAIの共同設立者の一人であり、前最高科学責任者であったIlya Sutskever氏は、退職からわずか1ヶ月で、2人の元同僚と共にSafe Superintelligence Inc.(SSI)という新会社を設立しました。同社は、超知能AIシステムの安全性問題に取り組んでいます。
李飛飛の新著『私が見た世界』 AI終焉論者ではないと語る
李飛飛の新著『私が見た世界』が正式に発売。スタンフォード大学がChatGPTの計算能力を訓練していないことを懸念し、自身はAI終焉論者ではないと述べている。李飛飛はオープンソース派でも終焉論者でもなく、中道派であり、人類と人工知能が平和共存することを願っている。AIの可能性と危険性を明確に認識し、「筋肉質」な政府規制を主張。人間中心主義の視点でAIを扱い、「筋肉質」な政府規制を提唱。規制枠組みと規範の構築を支持する一方、すべての活動を停止するよう呼びかけてはいない。
英国政府、先端AIモデルの安全研究に投資拡大
英国政府は、先端人工知能モデルの安全研究を推進することを目的とした2台のスーパーコンピューターを支援するため、投資を拡大すると発表しました。英国政府は、「人工知能研究資源」への資金を、以前発表された1億ポンドから3億ポンドに増額します。この資金は、ケンブリッジとブリストルに2台の新しいスーパーコンピューターを構築するために使用され、現在の最大の公共AI計算ツールよりも30倍以上の計算リソースを提供します。これらのスーパーコンピューターは来年夏から稼働を開始し、先端AIモデルの安全性テストと分析を行い、創薬やクリーンエネルギー分野の進歩を促進します。
