OpenAI は今日、AI システムにさらに柔軟で透明性があり、監査可能なセキュリティ分類機能を提供する、完全なオープンソースのセキュリティモデルキット「gpt-oss-safeguard」を発表しました。このモデルには120ビットと20ビットの2つのバージョンがあり、Apache2.0ライセンスに基づいて公開されており、開発者は自由に使用・変更・統合できます。

従来のセキュリティ分類器とは異なり、gpt-oss-safeguard は「リアルタイムでのポリシー解釈」をサポートしています。これは、セキュリティやコンテンツのルールが変化した場合でも、モデルを再トレーニングすることなく即座に更新に対応できるという意味です。このメカニズムにより、セキュリティシステムの維持コストが大幅に削減され、企業や機関は継続的に進化するコンプライアンスおよびコンテンツセキュリティの要件に高速に対応できるようになります。

OpenAI、ChatGPT、人工知能、AI

透明性に関して、OpenAI は gpt-oss-safeguard のアーキテクチャが開発者にモデルの意思決定プロセスを直接確認できるようにし、判断ロジックをより直感的に理解できると述べています。これにより、監査や最適化が容易になります。この設計は、長年外部から指摘されていたAIのブラックボックス問題への対応であり、信頼できるAIセキュリティエコシステムの構築に新たな技術的枠組みを提供します。

注目すべきは、gpt-oss-safeguard が OpenAI 自社のオープンソースモデル「gpt-oss」の上に構築されており、OpenAI と「ROOST」プラットフォーム(AIセキュリティ、保障、ガバナンスインフラストラクチャを専門とするオープンソースコミュニティ)との協力によって登場したことです。OpenAI によると、このプロジェクトの目的は、世界中でよりオープンで責任あるAIセキュリティの標準化プロセスを推進することです。