ますます深刻化する人工知能(AI)のセキュリティ課題に直面し、OpenAIは正式に上級管理職の採用を発表しました。年収は55万5,000ドル(株式を含む)で、このポジションは「準備担当責任者(Head of Preparedness)」と呼ばれています。この職務は、会社の準備フレームワークを実行し、重大な危害をもたらす可能性のある新しいAI能力を監視・対応する責任があります。

主な使命:サイバーセキュリティからメンタルヘルスまで

OpenAIのCEOであるSam Altman氏は、SNSプラットフォームXでAIモデルが「本格的な課題」をもたらし始めていると語りました。彼は、モデルがコンピューターセキュリティ分野で優れた性能を示しており、重要な脆弱性を発見するようになり、これは防御を強化するだけでなく、攻撃者によって悪用される可能性もあると指摘しています。また、Altman氏は特に、モデルがメンタルヘルスに与える潜在的な影響について強く強調しました。

OpenAI、ChatGPT、人工知能、AI

この職務の範囲は非常に広範囲であり、以下のような内容が含まれます:

  • サイバーセキュリティ防衛: 最先端の技術が防御者ではなく攻撃者に使われないよう確保し、システム全体のセキュリティを向上させます。

  • バイオ能力の規制: AIがバイオ分野で使用されるリスクを監視します。

  • システムの自己改善: 自己改善能力を持つ運用システムが安全で制御可能な状態にあることを確認します。

  • メンタルヘルスのレビュー: ChatGPTに対する最近の法的控訴に対応し、モデルがユーザーの社会的孤立を悪化させたり、妄想を強化したり、極端な行動を誘発する可能性がある問題に対処します。

組織の混乱とフレームワークの調整

OpenAIは2023年から緊急準備チームを設立し、ネットフィッシングや核威嚇などの「災害的リスク」を研究しています。しかし、この部門は最近頻繁な人事変動を経験してきました。元の責任者であるAleksander Madry氏は1年未満でAI推論部署に異動し、多くのセキュリティ関係の幹部も相次いで退職または異動しています。

注目すべき点は、OpenAIが最近その「準備フレームワーク」を更新したことです。新たな規定によると、競合が同等の保護措置がない「高リスク」モデルを公開した場合、OpenAIは競争力を維持するために「安全要件を調整」する可能性があるということです。

現実的な課題に直面して