0
会員になると、いいね!でマイページに保存できます。
アップルがプライバシーの権利を保証を宣言するCMを流しているが、いま、プライバシーデータを法規制する動きが世界中で進んでいる。背景には、誰しも、気づかずにAIが活用されたサービスを使っている現状において、データの管理やそのリスクに関する説明が不十分のままデータ活用がなされていることが挙げられるだろう。その結果、炎上するというケースもあとを絶たない。いま、AIとデータ倫理をどう考えるべきなのか。この6月に『AI・データ倫理の教科書(弘文堂出版)』を上梓した福岡真之介弁護士(西村あさひ法律事務所)に国内外でデータセキュリティのコンサルティングを手がける寺川貴也氏が聞いた。
AIとデータ倫理は「分けられない」
寺川貴也氏(以下、寺川氏):まず、『
AI・データ倫理の教科書』を書こうと思われた理由を教えてください。
福岡真之介氏(以下、福岡氏):2017年頃からAI倫理についての議論が盛り上がり、私も内閣府の「人間中心のAI社会原則会議」に委員として参加していました。また、AIやデータの仕事をやっている中で、実際、問題になる事例は法律だけではなく、やはり倫理的にどうすべきかという判断を迫られることも増えてきました。
しかし、倫理的な問題をどのように考えれば良いのかわからなかったので、AI倫理について自分の中で整理しようという思いが起きていました。
いま、さまざまな形でAI倫理原則が公表されていますが、それまではそもそも手がかりが何もありませんでした。EUが、2019年に「
信頼できるAIの倫理ガイドライン」を、2020年にAIに関する
ホワイトペーパーを出しています。そういうものが徐々にできつつある中で、ひょっとしたら、いまならと整理を始めて作ったのがこの本です。
寺川氏:ここ数年の間にAIを使った製品やサービスを目にする機会が増えてきました。AIを使った製品やサービスを開発している企業はどういうことを一番気にしていますか?
福岡氏:そうですね。AIの倫理原則といったものを作っている企業は何十社に上ると思います。
先日、
パナソニックが全社員にAI倫理教育をするということが記事になっていましたが、AI倫理に対する興味というのは色々なところで広まっている実感はありますね。実際にAIを使ったプロダクトを作っていこうというときに何が問題になり得るのかというのは、みんなが気にしているところだと思います。
以前は、AIが社会に入っていくときに引き起こされる倫理的な問題の典型的なケースとして自動運転についての議論が盛んにされていましたが、いまAIの問題で大きな割合を占めているのはデータの倫理に関するものです。特にプライバシーデータについて問題になることが多いですね。膨大なデータを処理するにはAIが必須なので、世の中の人からは、AIとデータは一体として見えるので、AI倫理とデータ倫理を分けて考えることはできないと思います。
寺川氏:ビッグデータ、AI、法律、データプライバシー、と色々な方向から議論されているけれども行き着くところは同じということですね。
福岡氏:はい。ただ、AIの公平性と言ったとき、AIが利用するデータが公平かどうかということのほうが問題になることが多いと思います。基本的には、AIのアルゴリズム自体は中立的であり、差別的なものではありません。しかし、いくらアルゴリズムが公平だ、中立だといっても、公平性に欠けるデータを使って学習されたモデルは差別的になってしまいます。そういう面で、AIとデータを分けて考える意味はあまりないとも言えます。
アプリレベルで「AIが何をどこまで判断するか」を検討
寺川氏:AIは倫理が深く関わる点が特徴的ですね。たとえばAIに判断させてもよいものとAIに判断させてはならないものをどう区別するか、など、「アカウンタブル(説明可能)」であれば問題ないという考え方から、さらに一歩進んだことが議論されているように思います。
福岡氏:いわゆる「ヒューマン・イン・ザ・ループ(HITL:Human-in-the-Loop)」 、「ヒューマン・オン・ザ・ループ(HOTL:Human-on-the-Loop)」と言われている話になりますが、要は人間がどう関与するのかということですよね。
ヒューマン・イン・ザ・ループ(HITL:Human-in-the-Loop):シミュレーターや高度なシステム(自動化・自律化が図られるような)において、そのプロセスの中で人間が一部の制御や判断などに介在すること。
ヒューマン・オン・ザ・ループ(HOTL:Human-on-the-Loop):ヒューマン・イン・ザ・ループのように人間がプロセスの中で介在するのではなく、一連のプロセスに対し、そのループの外から介在する(監視する)形を取ること。
人間が関与する形態は、色々あるわけです。開発の過程で人間が関わるのか、AIのアドバイスに対し人間が判断するのか、あるいは自律的にAIが判断するのかというように。おそらく「何に関与するか」「どういうふうに関与するか」はセットで考えるべきです。
そして、人間の関与形態は、AIの信頼性によると思います。AIの判断が信頼できないとなると、やはり人間が監督しないといけないということになるわけです。
また、AIの判断が間違いであったときの被害の大きさも考慮すべき点の1つです。AIはコンピューターだから人間よりもミスしない可能性があり、より安全なのかもしれない。しかし、AIは、人間ならしないような、とんでもない間違いをすることもあるわけで、それがいま見えていません。
たとえば、自動運転車が公道を走るようになったら、死亡事故が起こることが想定されますが、AIのほうが人間より安全な運転をして、全国の死亡者数は減るのかもしれません。
しかし、その点については、実際の道路を走らせた場合にどうなるかについて確信を持って言えないわけです。そういう不安がある以上、自動運転は社会実装できない、となるわけですね。これが、たとえばターゲティング広告であれば失敗してもそこまで大きな問題にはならないでしょう。広告の失敗は人間の生命に比べたら被害は少ないわけです。
あとは責任を負えるかどうかという話があります。人間が最終的に判断している場合には、その人の責任を問えるわけです。人間がAIのアドバイスを受けて判断するというフローであれば、その人間は「AIの判断に従いました」という言い訳をするかもしれませんが、それでも「判断したのはあなたでしょ」と人間に対して責任を問えるわけです。
一方、AIに責任をとってもらっても多くの人は納得いかないと思います。人間の社会では誰かが責任を取るということが重要なものもあり、それが求められる職業や役割は人間がやる必要があります。
それが法制度になっている典型的な領域が医療で、「医業」は医師しかできないと医師法17条で定められており、これがいま医療AIの問題の1つだと考えています。たとえば、患部の画像からどのような病気なのかをAIが判断する場合、「医業」に該当しないようにしなければなりません。
もっとも、AIがもっと本格的に普及してくると、低品質なものも出てきます。すると精度の低いAIが間違った診断を出してしまう可能性も高まるので、何らかの規制が必要というのはわかります。他方で、その規制は医療AIの発展を妨げるのではないかという意見も出てくるでしょう。そこが難しいところで、議論はさまざまあり得るというところです。
【次ページ】AIを使用してよいかを判断するのは「誰」なのか?
関連タグ