オーストラリア、メルボルン – オーストラリアの高いランク弁護士は、偽の出来事や生成された非存在しない司法文を含む殺人事件で申し立てを提示したことについて裁判官に謝罪した 人工知能。
ビクトリア州最高裁判所の誤りは、AIが世界中の司法制度で引き起こした事故の補給の別の誤りです。
金曜日の司法文書によると、王の顧問の名誉ある法的称号を保持している王の顧問の名誉ある法的称号を保持しているリシ・ナスワニは、殺人罪で告発されたティーンエイジャーの場合に誤った情報を提示することについて「すべての責任」を引き受けた。
「私たちは何が起こったのかを深く戦い、恥ずかしく思っています」とナスワニは、防衛チームを代表して水曜日にジェームズ・エリオット裁判官に語った。
AIによって生成されたエラーにより、エリオットが水曜日に終了したいと考えていたケースの解決が24時間遅れました。エリオットは木曜日に、未成年者であると特定できないナスワニのクライアントは、精神障害のために殺人罪ではないと判断した。
「状況を最小限に抑えるリスクがあるため、これらの出来事が開発された方法は不十分です」とエリオットは木曜日に弁護士に語った。
「弁護士が提示した申し立ての正確性を信頼する裁判所の能力は、司法の適切な管理に不可欠です」とエリオットは付け加えました。
虚偽の申し立てには、州議会の前に発明されたスピーチの任命と、最高裁判所の存在しない事件の任命が含まれていました。
エラーはエリオットの仲間によって発見されました。エリオットの仲間は、事件を見つけることができず、弁護士にコピーを提供するように頼みました。
弁護士は、司法文書によると、引用は「存在しない」と「架空の引用」が含まれていることを認めた。
弁護士は、最初の任命が正確であり、他の人もそうであると誤って想定していることを確認したと説明した。
この申し立ては、彼らの正確性を確認しなかった検察官のダニエル・ポルデドゥにも送られました。
裁判官は、最高裁判所が昨年、弁護士がAIを使用する方法に関するガイドラインを発表したと指摘した。
「その使用の積が独立して徹底的に検証されない限り、人工知能を使用することは受け入れられません」とエリオットは言いました。
司法文書は、弁護士が使用する生成的人工知能システムを特定していません。
2023年の米国での同等のケースでは、連邦判事は、航空損傷の請求における架空の法的捜査の提示の際にチャットされた後、2人の弁護士と法律事務所に5,000ドルの罰金を科しました。
P.ケビン・カステル裁判官は、彼らが悪意を持って行動したと言いました。しかし、彼は彼らの謝罪と、彼らまたは他の人が彼らの議論における偽りの法的歴史を彼らに促進することを促進しないようにするために、より深刻な制裁が必要でなかった理由を説明することによって採用された修正措置を認識しました。
その後、その同じ年、AIが米国大統領の元弁護士であるマイケル・コーエンの弁護士が提示した法的文書でAIによって発明されたより架空の司法決議、ドナルド・トランプが引用された。コーエンは、法的調査のために使用しているGoogleツールもAIの幻覚が可能であることに気付いていなかったと言って、自分自身を責めました。
英国上級裁判所のビクトリア・シャープの裁判官は、6月に、それが本物であるかのように偽の資料を提供することは、裁判所の軽emptと見なされる可能性がある、または「最もひどい場合」で、最大のシニアチェーンのペナルティを伴う正義の流れを変えることができると警告した。