最近、アメリカのユタ州で、法廷文書にChatGPTが生成した架空の判例を引用した弁護士のリチャード・ベドナー氏が裁判所から制裁を受けました。『ガーディアン』の報道によると、この出来事は人工知能が法律分野でどのように使用されるべきかについて広範な議論を引き起こしました。
ベドナー氏と同僚のダグラス・デュルバン氏は上訴申請を提出しましたが、審査中に存在しない複数の法的判例が引用されていることが発覚しました。これらの情報はどの法的データベースにも見つからず、ChatGPTの回答にしか存在しなかったため、弁護士界全体を驚かせました。法廷では、ベドナー氏の要約にはまったく関係のない案件も含まれており、そのミスの責任は厳密な審査が行われなかった文書にあったと指摘されました。
画像提供元:AI合成 画像ライセンス提供者:Midjourney
法廷での聴聞会では、ベドナー氏は要約の誤りを認め、謝罪しました。彼はこの文書がまだ資格を持っていない法務アシスタントによって書かれたものであり、自分が提出前にその内容を確認しなかったことを述べました。ベドナー氏と彼の弁護士は責任を負いましたが、デュルバン氏は文書の作成に関与しておらず、執筆を行ったアシスタントはすでに退職しています。
ユタ州控訴裁判所は声明で、人工知能が法律調査のツールとして使用することは可能であるものの、すべての弁護士には法廷文書の正確性を確保する義務があると強調しました。本件において、提出された文書に架空の内容が含まれており、弁護士としての適切な審査責任を果たしていないため、裁判所はベドナー氏に罰金を科す決定を下しました。
最終的に、ベドナー氏は相手側弁護士が申請書を作成し、聴聞会に参加するために費やした費用を支払う必要があります。また、クライアントが文書の起草のために支払った費用を返還し、ユタ州の法的公益団体に1000ドルを寄付することも求められました。この事件は、新興技術に依存する際には慎重な審査が依然として重要であることを改めて示しました。
