自動運転導入における事故発生時の責任はどう変わるか
今や、数年後には特定の道路環境下において自動運転に任せられるレベルには可能という時代になってきています。自動運転車が市場投入され、車が自動運転で制御されるようになり、人間が何も運転操作をしなくなると、交通事故が減るとは予想されています。とはいえ、事故が完全になくなるわけではないため、自動運転時に起こった事故については、誰が責任を負うべきなのかを考える必要が出てきます。その際は、自動運転のプログラムなどの車側の責任、製造物責任の問題、自動運転モードを設定した人間の責任など、様々な責任が新たに問われるようになると思います。
危機回避時に AI 期待する選択とは
では具体的に例を挙げて考えて見たいと思います。ここでは事故が起こる直前の危機回避行動に関して、AIにどのように判断させれば良いのかを考えて見たいと思います。目の前に歩行者がいて、以下のようなどちらかに衝突することで回避しなければいない場合、皆さんは AI がどんな判断望みますか?
- 衝突対象が、高級車 or 大衆車の場合
- 衝突対象が、エアバッグ搭載車 or 未搭載車の場合
(1)の場合 … 加害者の損害賠償額額を低くするため大衆車選択すると、低所得者ばかりが事故に遭ってしまう。
(2)の場合 … 被害者の怪我や人命を最優先に考えてエアバッグ搭載車を選択すると、安全意識の高い方のほうが逆に事故に遭ってしまう。
私が考える正しい AI 社会のありかた
上記の AI の選択に関して、皆さんはどのように感じられましたでしょうか?
私は人命に関わるようなものや、モラルに関わるようなものに関しては、AI に頼り過ぎず、人間の選択する余地を残す必要があるのではないかと思っています。
便利になることと、合理的になり過ぎてはいけない部分のバランスを上手にとること
それこそが AI と共存する社会には欠かせないものではないでしょうか?
E-Scotomaメンバーからのコメント
- 国家的な法整備が必要
- 具体的に考えるきっかけになった
- AIに個性を持たせることで危機回避時の判断がより人間らしい判断ができるようになるのではないか
- 衝突されるほうのことを考慮するのは非常に高度な技術的課題がありそう
- 衝突される相手は相手で別々に考えるようになりそう







コメントを残す