2014年5月25日日曜日

グーグルカーに殺人は可能か? The Mathematics Of Murder

Popular Scienceが問題提起しているのは、自動運転システムが確立したとして、事故に遭遇した際、コンピューターにはどのような優先順位で判断をさせるべきかという問いかけだ。
アジモフのロボット三原則によれば、ロボットは何よりもまず人命を優先しなければならないとされている。人命を救うためであれば、1億円の競走馬を乗せた場運車にも迷わず突っ込むというわけだ。この点については倫理的に議論の余地はないだろうが、人と馬の比較ではなく、人と人との比較を求められた場合は、どうすべきか?
例えば以下のような状況が考えられる。
①運転手の命を犠牲にすれば、同乗者や歩行者を救える場合、どうするか?
②2人の歩行者のうち、どちらかだけを救える場合、どうするか?

上記の記事ではトロッコの問題に代表されるようような目的論と義務論に照らし合わせて考えているが、そもそもこの問題を倫理や道徳で考えることが間違っている。カーコンピュータは人間ではなく製品なのだから、問われるのは倫理観ではなく製造者責任だ。事故の責任を問われる立場にあるカーコンピュータの製造メーカーの視点で考えるべきであり、もっとも賠償額が少なく済む方法が正解なのだ。コンピュータが原因で事故が起きた場合、責任を問われるのはしかたない。そうならないように高品質な製品作りを目指すだけだ。しかし事故の原因が第3者にある場合は、責任はすべてそいつに被せるべきだ。ステアリングを右に切って運転手を殺しても、左に切って同乗者を殺しても、製造者は最悪、過失致死が認められ実刑を受けてしまう。それよりも「いかがいたしましょうか?」と運転者に問い合わせたまま機能を停止するほうがよい。まさに目前に暴走トラックが突っ込んで来ようとしているときに、運転者が判断することなどできるはずもないが、メーカーにしてみればそんなことはどうでもよい。判断を求めたにも関わらず、即座に判断できなかった人間が悪いということにしてしまえばいいのだ。