企業における人工知能(AI)の活用はますます広がっていますが、その固有の「幻想」リスク——つまり、偽のまたは根拠のない情報を生成するリスク——は、大規模な展開を妨げる主要な課題となっています。業界では多くの技術や方法が登場してきましたが、検索強化生成(RAG)、データ品質向上、ガードレールメカニズム、推論検証などにより幻覚を減らす試みも、効果が限定的であることが多いです。最近、Vectaraという会社が、まったく新しい解決策を発表しました。「Vectara 幻覚補正器」は、監視エージェントを通じてAIが生成した幻想を自動的に特定し、説明し、修正することを目的としており、企業向けAIアプリケーションに新たな希望を与えています。

Vectaraは当初からRAG技術の早期提唱者でした。RAGは提供されたコンテンツから情報を抽出することで幻想を減少させますが、完全には防げません。既存のソリューションは主に検出や予防に焦点を当てていますが、Vectaraの監視エージェントは積極的な修正に重点を置いています。このエージェントは、AIのワークフローを監視し保護措置を講じるソフトウェアコンポーネントであり、代理型AIとして誤りを修正し、全体的な内容を変えずに正確に修正を行い、詳細な修正理由の説明も提供します。Vectaraによると、このシステムによりパラメータが70億未満の小さな言語モデルの幻想率は1%以下に低下しました。
Vectaraの最高製品責任者であるEva Nahariは、企業が代理型ワークフローをより多く採用するにつれて、幻想による影響が増幅されるため、彼らがこの監視エージェントを導入した理由を強調しました。それは、より信頼できる企業級AIを構築するためです。
さらに、幻覚補正技術の進化を促進するために、VectaraはHCMBenchと呼ばれるオープンソース評価ツールキットをリリースしました。このベンチマークは、異なる幻覚補正モデルの効果を評価するための標準的な方法を提供し、複数の評価指標をサポートしており、コミュニティ全体が幻覚補正に関する声明の正確性を評価する助けとなります。これは、Vectara自身のソリューションにも適用されます。
Vectaraの革新的なアプローチは、企業がAIの幻想リスクに対処する新しい考え方を示しています。ただ検出したり、ハイリスクなシナリオでAIの使用を放棄するだけでなく、エラーを積極的に修正する仕組みを導入することが可能です。特に、非常に高い精度が求められる高価値なワークフローに適しています。もちろん、このような自動修正メカニズムを導入する際には、一定の人間による監督機能を維持し、HCMBenchなどのベンチマークツールを使用して十分な評価を行う必要があります。幻覚補正技術がさらに成熟すれば、企業は以前は制限されていた多くの分野でAIを安全に展開し、重要な業務運営に必要な精度を確保できるようになります。
