難しい場合、2を飛ばして読んでください。

まとめ
 自動運転車両が事故を起こした場合に製造会社に過失責任を問えるか?問えるのはどのような場合か?
 基準を作らないとイノベーションを阻害する
 かといって無責任な製造を許してはならない
 ある一定程度予めテストして大丈夫だったら過失責任を問わないシステムを作ったとして国民的理解が得られるか?

1 問題の所在
 自動運転車両(AV)が自動車製造会社(メーカー)の設計者(プログラマー)の当初の予想を超えて暴走した場合、当初のプログラミングにミスがあったとして過失責任を問い得るのでしょうか?
 AVに使用されるAIがディープラーニングによって進化する場合、そもそも進化の過程がブラックボックス化している(どのような論理構造で結論に至ったか後から検証不可能)ため、過失の因果関係の経過を検察が立証出来ないという問題点があります。
 これを逆に過失責任を問われるメーカーの立場からすると、「自分のしたプログラミングから、暴走するとは思わなかったし、なぜ暴走したか結果が起きてもわからない」ということになります。
 このような場合でもメーカーに過失責任を問い得るとなるとメーカーに酷だと思う一方で、メーカーがどのような製造体制でも責任を問い得ないことも避けるべきであり、その線引きをどこにするのかについて議論が必要だと思います。

2 前提理論
  過失犯における因果関係の認識についての整理
  過失犯において判例は、過失犯が成立するには、結果予見可能性(結果が予見できる程度の認識)と結果回避可能性(予見できた上で回避可能であったか)を必要としつつ、「どの程度の予見可能性が必要か」という問題については、「単なる危惧感では足りず、具体的な予見可能性が必要」としています。
  因果関係の認識については、判例は概ね故意犯においては、「法定的附合説」の立場から、因果関係の具体的経緯の認識は不要であり、同じ構成要件の範囲内の認識(人は殺してはいけない)があれば故意に欠けることはないとしています。
  過失においては、個別具体的な注意義務違反の行為が実行行為となり、実行行為を認定する際に予見可能性を認定するので、論理構造的には、因果関係の錯誤という問題の出方よりも、「具体的に生じた因果関係を踏まえて、その当時被告人に結果予見が可能であったか」という問題の出方になり、予見可能性の問題に実質的に解消されていると言えます。
  とはいえ、判例のいう「具体的予見可能性」も、「なにをもって具体的な予見可能性があったといえるか」という点で抽象化されれば、それは危惧感を言い換えたにすぎないという批判もあるところです。
  例えば、弥彦神社事件最高裁判決において最高裁は以下のように述べ、平たく言うと「事故当時、同様の事件はなかったし、事件が起きた原因に、電車が遅延して行き交う人がちょうど地形的に危険なところに集まってしまったという理由があったとしても、『たくさん人があつまったら危ない』と予想できるから過失があるので刑罰加えるよ」と述べています。
「本件発生の当時においては、群衆の参集自体から生じた人身災害の事例は少なく、一般的にこの点の知識の普及が十分でなかったとはいえるにしても、原判決の認定するごとく、右二年詣りの行事は、当地域における著名な行事とされていて、年ごとに参拝者の数が増加し、現に前年〔昭和三〇年元旦〕実施した餅まきのさいには、多数の参拝者がひしめき合って混乱を生じた事実も存するのであるから、原判決認定にかかる時間的かつ地形的状況のもとで餅まき等の催しを計画実施する者として、参拝のための多数の群集の参集と、これを放置した場合の災害の発生とを予測することは、一般の常識として可能なことであり、また当然これらのことを予測すべきであったといわなければならない。したがって、本件の場合、国鉄弥彦線の列車が延着したことや、往きと帰りの群衆の接触地点が地形的に危険な右随神門外の石段付近であったこと等の悪条件が重なり、このため、災害が異常に大きなものとなった点は否定できないとしても、かかる災害の発生に関する予見の可能性とこれを予見すべき義務とを、被告人らについて肯定した原判決の判断は正当なものというべきである。」
 
 このように考えると、結果が起きてしまった以上、単なる危惧感で過失責任が刑事上認められることになってしまいそうです。
 具体的には、「なにが起きるかは誰も予想が出来ない」というAIに運転させる車両を作成した以上、人が傷つくことは予想できたと認定されてしまいそうです。

3 問題提起 刑事罰をいつ受けるかわからない状態はAV技術のイノベーションを阻害しないか?
 上記のような状況では、いつ刑事罰を受けるかわからず、メーカーは先進的な自動運転の開発や販売に思い切った投資ができず、自動運転の有用性を国民が享受出来ないのみならず、国際的な競争に負けることも想定されます。
 法律の適用があるかないかわからないことから国民の経済活動が抑制されることは避けるべきことです。
 とはいえ、メーカーの利益を優先して、メーカーに無責任な開発を許すことも当然許されません。
 どのようなシステムでこの問題を解決すべきでしょうか。

4 現在の思いつき
 ここからは今後私よりも優秀な方や専門家が検討すべきことかも知れませんが、よくある一つの方法として、国が基準を定めたテストを行えば、少なくとも刑事上の過失責任は問わないとする方法があると思います。
 具体的には、あるAIを仮想で一定の回数、距離運転させ、その結果事故が起きない、又は事故率が一定以下の場合には予め過失を問わないと規定することです。
 理論上、「国の基準を満たしていた以上、予見可能性がない」ということも可能ですが、過去の公害裁判や薬害事件においては、国の基準を満たしていただけでは必ずしも過失の予見可能性は否定されていないことからすれば、企業活動の予見可能性を守るという意味においては、予め法制化する必要があると考えます。
 もちろんテストを偽装したりテストを回避したりした場合には刑罰を加えますし、テスト自体は国が行うという方法もあります。
 この場合でも国を刑事告発したりすることは可能ですが、メーカーに対する萎縮効果は最低限にしつつ、メーカーに一定以上のクオリティのAVを製造させることができるのではないでしょうか。