自動運転なら人を殺しても良いんだよ、という話
自宅の駐車場で後ろから突っ込んでいった小倉です。
今回初めて自動運転が原因で事故を起こしましたね。
Googleが初めて過失を認める自動運転カーの衝突事故が発生
http://gigazine.net/news/20160301-google-car-hit-bus/
自動運転初の過失でワーキャー言われてるけど、このレベルで文句を言われるのかと。
いつか事故で人が死んでしまったら
「やっぱり自動運転は危険だ!」
的な世論になりかねないですよね。よろしくない。
グーグルは安全面を強調しすぎて、自らハードルを上げすぎたんです。
いつかハードな事故を起こした時にしっぺ返しが来るだろ〜なと。
ハードルを上げすぎたアイドルが奈落に落ちるベッキー現象ですよ。
という訳で本題。
気がつけば「自動運転は絶対に事故を起こしてはいけない」的な風潮になってるけど
それは全然違ってて、事故は起こしても良い。
人を殺してしまっても良いんですよ。
グーグルはそろそろそれを言わないと。
人は人を殺してはいけないけど、
自動運転を司るAIは人を殺してもOK。
ただし、前提があって
「人の運転よりも安全だと"見込める"なら。」
これが大事。
これさえ守られていれば今すぐにでも自動運転の車はリリースされるべきです。
例えば今日本では1年間に起きる死亡事故は年間4000件だそうな。
http://www.jtsa.or.jp/topics/T-254.html
自動運転車による死亡事故の確率がそれと同じくらい、もしくはそれ以下なら自動運転の方が明らかに幸福の総量が増えるんです。
仮に
「絶対に安全な自動運転」を選択した未来と
「リスクがあっても自動運転が許される」未来があったとしよう。
絶対に安全な自動運転を求める未来は
そうでない未来よりもリリース時期は何年何十年も遅れ、
ソフトとハードの開発コストは何倍、何十倍にもなる。
だから車の価格は高くつく。
安全の為に自動運転車の速度はもっと遅くなる。
「リスクがあっても自動運転が許される」未来の場合、
何万台ものAIによって蓄積された経験で
年単位、月単位、日単位で死亡事故は減っていく。
加害者は自動運転になった段階でゼロだ。
つまり、
絶対なる安全を前提とすれば、
車の速度は遅く、価格は高くなり、結果的に守れるハズの命の数を減らしてしまう。
リスクを前提とすれば、
速度ははやく、価格は安く、結果的に守れる命の数は増える。
だから自動運転は人を殺しても良いんだ。
という風潮にグーグルは誘導しなきゃいけない。
というわけで、自動運転の安全性において世論を盛り上げすぎないトヨタは冷静だなーって思いました。