ユニバーシティ・カレッジ・ロンドン(UCL)のニコラオス・アレトラス博士らが、人工知能の「裁判官」を開発しました。実際に欧州人権裁判所の評決と比較したところ、精度は79%だったとのこと。

AI predicts outcome of human rights cases - BBC News

http://www.bbc.com/news/technology-37727387



Artificial intelligence 'judge' developed by UCL computer scientists | Technology | The Guardian

https://www.theguardian.com/technology/2016/oct/24/artificial-intelligence-judge-university-college-london-computer-scientists

これはUCL、シェフィールド大学、ペンシルバニア大学が共同で研究しているもの。コンピューターが司法判断を下せるようになるということは1960年代の専門家が「予言」していましたが、このAIは、法律の判断だけではなく、道徳的な側面にも配慮しての判断が行えます。

アレトラス博士らは、AIの学習のために、欧州人権条約の第3条「拷問の禁止」、第6条「公正な裁判を受ける権利」、第8条「私生活、および家庭生活の尊重についての権利」の3点にまつわる事件で、公開されているデータセットを584件分スキャン。バイアスや誤学習を防ぐために、学習した「人権侵害」の件数と同じだけの「非侵害」案件のスキャンも行いました。共同研究者であるVasileios Lampos博士は、理想としては「公表された司法判断」ではなく「人権裁判所への申し立て」を使用してテスト・改良を行いたいものの、そのデータにはアクセスできなかったことから公表された要約を利用したと語りました。

しかし、それでも裁判官AIは、欧州人権裁判所で行われたのと同じ司法裁判を行わせたところ、79%の精度で判断を下しました。結果を見てみると、似たような複数の事例で判断が「人権侵害」と「非侵害」に分かれたようなケースでは、AIは判断に悩んだとのこと。

すでに、IBMのスーパーコンピューター「ワトソン」の計算能力を利用した人工知能「ロス」が、ベイカー&ホステットラー法律事務所に「雇用」され、破産問題に対処しています。

アナリストのマット・ジョーンズ氏は、AIにはまだ「ニュアンスの理解」という点には難しいところがありそうだと条件をつけつつも、タスクの一部を自動化することで、訴訟の時間を節約する大きな力を秘めていると語りました。