- 2018/10/11 掲載
「完全自動運転」を実現する条件、人工知能に倫理が必要な理由
自動運転車が抱えた大問題
「トロッコ問題」と呼ばれた倫理的な議論が、自動運転車の場面であらためて浮上しているのです。「トロッコ問題が解決されなければ、自動運転車はデビューできない」と力説する人もいるほどです。
そのような将来のテクノロジーの行く末を左右するほどの「トロッコ問題」とはどのようなものか。簡単に確認しておきましょう。
もともと議論のスタートは、イギリスの哲学者であるフィリッパ・フットが、1967年に妊娠中絶問題を考えるために着想した、思考実験の一つです。そして、このアイデアをより洗練させて、問題を一般化したのが、アメリカの哲学者ジュディス・トムソンでした。彼女によって「トロッコ問題」と命名され、その後、論争となる事例が提起されたのです。すでに一般にも紹介されていますが、後の議論のために見ておきましょう。
5人と1人、どちらを救う?「トロッコ問題」
(A)たまたま路面電車の傍を散歩していた人が、ブレーキのきかなくなった電車に遭遇した。その電車の前方には、5人の作業員がいてこのままでは轢かれてしまう。そのとき、散歩中の人の近くには進路を変えるスイッチがあり、それを引くと電車は右に曲がる。ところが、右の線路の先には1人の作業員がいるので、右に曲がると1人を轢いてしまう。
(B)陸橋の上にいた人が、電車を見ていると、ブレーキがきかなくなっているのがわかった。その先には、5人の作業員がいて、このままでは彼らを轢いてしまう。そのとき、陸橋には、太った人が傍にいて線路を見ている。その人を線路に突き落とせば、電車が止まりそうである。このとき、5人の作業員を救うために、1人の太った人を突き落としてもよいか?(“Rights, Restitution, and Risk”参照)
ここで議論のポイントは、「1人を救うか5人を救うか」ではありません。
「1人を救うか5人を救うか」という問い自体は変わらないにもかかわらず、AとBとで選ぶ答えが変わる、というところにあります。実際アンケートをしてみると、Aの場合には「1人を犠牲にする」と答えても、Bの場合には「1人を犠牲にしない」と答えるようです。
この対立はしばしば、「功利主義」と「義務論」の対立として説明されています。 一方の功利主義は、何よりも結果を重視(帰結主義)して、全体の利益と損失とを計算し、その総量から行為を選択します。5人の命と1人の命を比較すれば、当然5人の命を優先することになります。
もう一方の義務論では、結果がどうであれ、人を「殺す」という行為自体をすべきではない(義務に反する)と考えるのです。さらには、5人の人を救うために、その手段として1人の人を殺すことは許されない、と主張します。
乗員と通行人、救うべきはどっち?「トンネル問題」
たとえば、功利主義的に考え、AもBも「5人の命と1人の命の比較」とみなせば、いずれも「5人の命」を優先するでしょう。そう考えると、陸橋の上の太った男を突き落とすことさえ選択すべきではないでしょうか。ところが、それは通常の倫理観と対立するのです。
それに対して、義務論的に考えると、陸橋の上の太った男だけでなく、スイッチの場合にも「1人の男」を優先しなくてはなりません。太った人をあえて突き落とすべきではないと同じように、スイッチをあえて引いて線路の1人を殺すべきではないわけです。大きな被害が出るとわかっていても、それに介入できないのです。
だからといって、Aの場合には功利主義的に考え、Bの場合には義務論的に考えるというように、ご都合主義的に立場を変えるのは問題の解決になりません。とすれば、すべての場合に妥当するような倫理はあるのか。これが「トロッコ問題」の基本的な問いです。
「トロッコ問題」そのものに決定的な解決策が出てないうちに、それを「自動運転車」に応用したら、どうなってしまうでしょうか。ここまでの議論と対応させるため、「トンネル問題」と呼ばれている状況を考えてみましょう。
【次ページ】自動運転車の「トンネル問題」とは?
関連コンテンツ
関連コンテンツ
PR
PR
PR