最近、アメリカ合衆国ユタ州ヒーバー・シティ警察はAIによる警備記録システムを導入する際、笑いを誘う出来事に遭遇しました。AIアルゴリズムの認識ミスにより、真剣な公式執法報告書の中に「警察官がカエルになった」という奇妙な内容が含まれてしまいました。

ヒーバー・シティ警察によると、現在同署では警官の文書作業を軽減するための2つのAIツールをテスト中です。それはDraft OneとCode Fourです。これらのシステムの主な機能は、警用カメラの音声を聞き取り、自動的に標準化された警察報告書に変換することです。ヒーバー・シティの警長Keelはインタビューで、この「誤解」の原因は、AIシステムが現場の背景音として流れているアニメ映画『プリンセス・アンド・ザ・トード』の音声を捉えたことであると明らかにしました。

驚いたことに、AIシステムはそれが環境の背景音であることを識別できず、実際に捜査中の会話を認識し、「責任を持って」映画のストーリーを正式な警備記録に組み込んでしまったのです。警官が報告書を提出する前にこの誤りに気づかなかったため、この童話のような誤情報が法律的な効力を持つ公式文書に直接記録されてしまいました。

地元警察は、AIシステムを導入した目的は、警官を重い文章作業から解放して、より多くの時間を地域の巡回に費やすためにあると述べています。しかし、この出来事はAIツールが複雑な環境下での限界を暴露しました。現在、ヒーバー・シティ警察はこれに注意を払い、Draft Oneシステムが今回の重大なミスを起こしたため、警察は今後もう一つの安定した性能を示したCode Fourシステムを日常的に使用することを検討していると述べています。

要点:

  • 🐸 背景音の誤解: ユタ州警察のAI記録システムが現場で流れているアニメ『プリンセス・アンド・ザ・トード』の台詞を捜査内容として誤って読み取り、「警察官がカエルになる」という報告書を作成しました。

  • 📄 公式文書の厳密性への挑戦: この出来事により、奇妙な誤情報が法律的効力を有する警察報告書に直接記載され、AI補助行政の信頼性について議論を呼んでいます。

  • ⚖️ システム選定に影響: Draft Oneがテスト中にエラーを起こしたため、地元警察は別の名前がCode FourのAIシステムを採用することを検討しています。