第568号コラム:石井 徹哉 理事(千葉大学大学院 専門法務研究科 教授)
題:「AIに関する刑事責任・補論」

『罪と罰』56巻2号(平成31年3月)の特集は、AI時代の刑事司法というものでした。そこで、私は、「AIに関する刑法上の課題」という論文を執筆しています。その骨子は、

(1)人と同様に思考する、人と同様に行動するといったAIの実装は、当面予想されないため、むしろ特定の機能を人間に代替するソフトウエアエージェントが現実に実装されるものとして検討されるべきこと、

(2)そのため、AIそれ自体の法主体性・刑事責任は当面考察する必要のないこと、

(3)検討されるべきは、法政策的問題及び法解釈的問題として、社会的実装により生じた損害、とりわけ人身被害について製造者または提供者が刑事責任を負うことがありうるのかということ、

(4)法政策的観点からは、社会的実装に際して実装目的にかかる機能的合理性が充足されているか、必要な安全措置が講じられているかが重要であり、AIのエージェントによる事故はまったくゼロにすることは考慮されないこと、例えば自動運転自動車の実装に際しては、それが自動車による事故の低減等を図ることを目的としているのであれば、人の運転による事故発生率より自動運転自動車の事故発生率が低ければ足りること、すなわちゼロリスクを考慮することはあり得ないこと、

(5)社会的実装にあたって必要なリスクの低減が図られている以上、事故発生のリスクは実装に際して社会的に容認されたものといえるから、製造者も提供者も許された危険の法理により過失犯の成立を認めることはできないが、後にプログラムの脆弱性等が判明したり、学習の偏位によりリスクが実装の際に予定されていたリスクを上回ったときに、これを放置し、このリスクが顕在化して事故が発生すれば、過失犯が成立しうる、

というものでした。ただ、書き殴った感じもあり、いくつかの点をここで補足したいと思います。

まず、社会実装にかかるリスクの許容性ですが、ここはまさに政策的判断であって、法令等により結成されるべきものといえます。国土交通省自動車局『自動運転車の安全技術ガイドライン』(平成30年9月)では、「自動運転システムが引き起こす人身事故がゼロとなる社会の実現を目指す」ことを目標にする(3頁)とあります。しかし、これを文字通り受取り、ゼロリスクを要求することは過剰なものといえます。このことは、刑法の過失犯論における予見可能性の問題とリンクします。もし社会実装に際してゼロリスクを要求することになれば、製造者等は、人身事故のリスクをゼロにしない限り、自動運転自動車を製造し、社会に送り出すことはできないでしょう。リスクゼロにない限り、予見可能性がありとされかねないからです。

では、どの程度のリスクなら容認されるかですが、これは同ガイドラインで上記点に続く箇所でISOの定義として「許容不可能なリスクがないこと」だと示されています。この場合の許容可能性は、所与の状況下で受容可能なリスクであり、事故をゼロにすることではありません。むしろ、自動運転車の導入の目的、機能、社会的利益を考慮しつつ、人による運転での人身事故のリスクと比較し、同程度でよいとするか、もう少し低くすべきと考えるかという政策的判断で決断すべきです。同ガイドラインは、これを合理的に予見される防止可能な事故と抽象的に記述しますが、適切なエビデンスベースでの刑量的計算に基づくリスクアセスメントが必要ではないかと考えています。

次に、自動運転自動車が実装された場合について、よくトロッコ問題をどう解決するのかが議論されています。しかし、これは、実際にはいわば観念的な仮象問題でしかないでしょう。すなわち、実装段階で許容不可能なリスクがないという形で設計されたシステムであれば、そのシステムの動作としてトロッコ問題と同様の状況に落ちいったとしても、

それは「許容可能なリスク」が現実化したにすぎません。そもそも社会実装において一定のリスクがあることが容認されており、容認されたリスクが現実化したにすぎない場合に、法的責任を問うことは不可能です。刑法の過失犯でいえば、許された危険の法理により過失責任が否定されることになります。さらにいえば、民事責任も問題にすることは困難です。この考えを徹底すれば、人身事故の被害者救済が途絶えることになります。しかし、自動運転自動車の実装が政策的判断であることを前提にすれば、現行の自賠責保険制度を抜本的にあらため、自動運転自動車の事故にはフルカバーの保険を必須のものとし、保険金支払いに過失の有無を問わないことにすれば解決します。また、例えば、人の運転による自動車についても、同様の保険を必須とした上で、現在の任意保険制度と同じ等級制度を導入することになると、頻繁に交通事故を起こすいわゆる「危険な」運転者が制度的に排除されることになりますし、保険料の高騰により自動運転自動車を利用する誘因を形成することも可能になります。

なお、以上はあくまで部分的なものですが、AIを社会実装する際には、たんに法的責任の有無を議論するだけでなく、実装の必要性、目的、機能に照らして社会全体の仕組みを緻密なリスク評価と選好関係を分析することで政策形成することが求められているといえるでしょう。

もっとも、このようなリスク評価、選好関係の分析は、我々日本人がもっとも苦手とする手法であり、今後このような視点が欠落することによる種々の問題が生じうることが懸念されます。

【著作権は、石井氏に属します】