Dec. 2022No.97

人工知能法学を識るAIと法学が融合した “新学問”

Article

AIをめぐる法制度のあり方

人工知能と法

人工知能法学において、人工知能(AI)を司法に生かす研究とともに、 AIの法統制にかかる研究も進んでいる。 AIによって起こりうる新たなトラブルやリスクについて、 どのような法的整備が必要なのか、 AIにおける刑事責任について研究する、京都大学の稲谷龍彦教授に聞く。

稲谷 龍彦氏

INATANI, Tatsuhiko

東京大学文学部、京都大学法科大学院修了。法務博士(専門職)。2021年3月より現職。企業犯罪および人工知能の開発・使用をめぐる刑事責任のあり方を学際的な研究手法によって研究。近著に『刑事手続におけるプライバシー保護』(弘文堂)などがある。

 総務省の「情報通信白書」(令和3年版)によると、デジタルデータの収集・解析などのため、IoTやAI等のシステム・サービスを導入している国内企業の割合は12.4%となっており、導入予定の企業を含めると約2割に達する。自動運転や医療機器への導入、金融システムの制御など、すでに多方面で活用されている。そして、普及すればするほど、いったん事故や不具合が起きた場合の規模やその深刻度は大きくなる。ところが、いまの刑事法制では、人工知能搭載機器(AID)による事故について、妥当な処罰の結論を導くのが難しいと稲谷教授は言う。その理由の一つに挙げられるのが、AIの「ブラックボックス」性だ。
 「AIDは、開発段階においてディープラーニング(深層学習)のような統計的最適化技術を利用されているものが多い。個々のデータ学習行為やプログラミング行為などが、AIDの挙動にどう影響したのか突き止めることは不可能だ。従来の製品は、こういう使い方をするとこうなるという予測が立てやすかったのに対して、AIは確率的に挙動するという仕組み上、入力と出力が安定しない。これがブラックボックス性を招いている」
 このブラックボックス性によって、事故や障害に対する適切な責任追及や処罰が阻害されるのはなぜなのか。稲谷教授によれば、「日本は過失責任主義が基本だ。過失責任は、なぜリスクをコントロールできなかったのかということを根拠として責任を問うシステム。ところが、AIはどう挙動するかわからない性質を有しているため、厳格にみれば結果の予見可能性がないということになり、全く処罰できないことになる。他方でどう挙動するかわからない危険な製品をそれと知って流通させたとして責任を問われうる。つまり、いまの法体系では、AIの開発者に全く責任を問えないか、毎回責任を問うか、どちらかしかない不合理な状態になってしまう」。

DPAをAI問題に適用できないか

 現代の法体系の基礎となる概念の多くは19世紀から20世紀の初めにかけて確立されており、洗練された統計的手法がない時代にあたる。この意味で、AIはまさに現行法制度の「想定外」にあるといえる。
 そこで、稲谷教授が提唱するのは、DPAを原型とした法制度の確立だ。DPAとは、DeferredProsecution Agreements(訴追延期合意制度)の略で、米国を中心に発達してきた制度。主に企業犯罪を想定しており、罪を犯した企業が検察官との交渉により、刑事訴追を延期してもらう代わりに、捜査や原因究明への協力や再発防止に努めていくプログラムだという。稲谷教授はいう。
 「米国では一度処罰を受けると天文学的な額の刑事制裁金に加えて、市場に製品を出すのに必要な認証や許可を取り消されてしまう。いわば死刑宣告に近い。だから、単に刑罰を厳しくすると、企業は証拠を隠す方向に動いてしまう。ただ、法人を処罰する目的は適切なコーポレートガバナンスやコンプライアンス体制の確立であって、つぶすことではない。そこで生まれたのがDPAという制度。これをAIが引き起こす問題にも適用できるのではないか」
 DPAの仕組みでは、企業自身が企業内での犯罪行為を発見し、当局に自主的に報告することで制裁金の減免を得る。この仕組みがインセンティブになり、問題を自ら解決するように企業の体質も変化してきたという。
 「AI開発者の『過失』の判断には専門的知識が要求されるため、裁判官が適切に行うのは極めて困難だ。多国籍企業の介在により、検察官の証拠収集も阻まれる。国が進めるSociety5.0(ビッグデータなどを活用した日本が目指す社会)を実現しようとする過程で、AIが社会に浸透することは避けられない。一方でAIの事故が不可避だとすれば、企業や開発者自身の努力でリスクを合理的なレベルに抑えていく、さらに問題を起こしたAIシステムの改善につなげていくことが重要だ」と稲谷教授は強調する。しかし、大事故が起きた後、被害者や遺族が厳罰を望むことは想像に難くない。関係者が納得する形での解決の方向性について稲谷教授はこう指摘する。
 「まずは企業に対する制裁制度の整備が必要だ。そこにDPA的な仕組みを加え、企業の情報提供などにより問題を起こしたAIシステム全体を改善していく。そして、被害者を刑事手続きの中になんらかの形で関与させる。それにより制度自体の正統性が生まれ、いい制度だと思ってもらえることが大切だ」
 ただ、こうした制度の確立には社会全体の理解が必要で、まだまだ時間が必要だと稲谷教授も考えている。
 稲谷教授の研究ユニットでは、AIDの動作で生じた事故に関する人々の非難感情について、心理学的実験と文化人類学的調査を通じて把握する試みも進められている。実験と調査は、英国でも実施され、AIDの位置づけやその社会的受容性をめぐる日英比較を行うのだという。
 「まだ研究途上だが、日英で興味深い有意な差がみられている。自動運転に関するシナリオを作り、例えば自動運転車がバスを追い越したときに人とぶつかった、という状況について、『誰が悪いのか』という質問を両国の数百人に聞き取りをしている。すると、英国人は『自動運転車ないしは開発者が悪い』という直接的なアクターに責任があると考えるようだ。一方で、日本人は『なぜバスはそんなところに停まっていたのか』『飛び出した歩行者も悪いのではないか』と、複数の要素に目を向ける傾向にあることがわかってきた」。
 稲谷教授によると、東洋と西洋では世界観の違いから、因果関係あるいは人間そのものに対する理解の仕方に差があるという先行研究が存在し、今回の調査結果はそれを裏付ける形になるのではないかという。
 「非難感情の違いや、そうした違いを生み出すメカニズムも研究の中で徐々にわかってきている。そして、システム全体を改善するためには何かが必要だという問題意識はどの国も持っている。そのためにどのような法的環境を整備するかについて、私が提唱しているAI時代に即した法体系のアイデアはグローバルな観点でみても受容されていく可能性はあるのではないか」と稲谷教授は話す。
 AIが実装されて世の中に出現すればするほど、その環境に適応してAIはさらなる進化を遂げていくと稲谷教授はいう。激しい変化の中で、グローバルスタンダードな人工知能法制の在り方を模索する研究は、これからも続いていく。

(取材・文 大島 大輔)

記事へのご意見等はこちら
第97号の記事一覧