- 会員限定
- 2017/02/10 掲載
AIに「認証制度」は必要? ガイドラインを整備する功罪とは
安全なAI開発のための「ガイドライン」整備
2016年4月末に行われたG7香川・高松情報通信大臣会合において、高市総務大臣は「OECD他国際社会は、AI開発に関する原則を議論する必要がある」と発表し、その素案を配布した。この提案は各国からの賛同を得て、各国でも、安全なAIを普及・拡大させていくための考え方や原則についての議論が始まっている。
上記の流れを受けてまとめられたのが、同年末に発表された「『AI開発ガイドライン』(仮称)の策定に向けた 国際的議論の用に供する素案の作成に関する論点」という文書である。これは、総務省管轄のAIネットワーク社会推進会議事務局が運営するAIネットワーク社会推進会議・同分科会の議論がベースになっている。
総務省では2017年1月末までパブリックコメントを募集し、夏ごろまでに推進会議がガイドラインをまとめ、OECDで発表する予定だ。
ガイドラインをまとめる目的は、安全・安心なAI開発を普及・拡大させるためだという。最低限の開発原則や安全指標を示すことで、開発側はAIの設計や実装の参考になり、利用者側にも安全性や信頼性の確保というメリットが生まれるというのだ。
AI開発ガイドライン「8つの原則」
しかしこの文書、タイトルに「AI開発ガイドライン」と入っているが、現時点ではガイドラインは存在せず、その内容も決まっていない。つまり、どんな項目、視点が必要なのかを含めた議論からスタートさせようという段階なのである。この文書の論旨の中には、開発原則として以下の8つの項目を挙げている。
(2)制御可能性の原則
(3)セキュリティ確保の原則
(4)安全保護の原則
(5)プライバシー保護の原則
(6)倫理の原則
(7)利用者支援の原則
(8)アカウンタビリティの原則
詳細は省くが、たとえば「AIが人を傷つける判断をできるようにするか(トロッコ問題の処理)」「AI作成の著作権の扱い」などの議論、提案が含まれている。また、総務省の管轄である通信ネットワークを利用したAIの相互接続・連携に関する原則も議題として提案している。
ガイドラインとうたっているものの、この段階では具体的な各論への落とし込みは難しく現実味がない。
日経新聞が認証制度導入を報道した理由
こうした中で、国内では気になる動きもある。12月31日に日経新聞が「AI開発のため、認証制度を導入すると政府が決めた」と報じた。どこまでがAIかの議論もこれからの状態で、いきなり認証制度だけ確定しているかの報道は、かなり違和感を感じる。総務省の文書には、ガイドラインに準拠している企業やAIを客観的に評価する仕組みの必要性に言及があり、「認証制度」という文言も使われている。
そこで推進会議に取材し、確認してみたところ「あくまでも議論対象の案として挙げているもので、導入するかも含めて今後の会議次第。特定の制度導入が決定した事実はない」との回答のみ。つまり、推進会議で出たアイデアのひとつという見方が妥当なところだ。
しかし、この段階で日経新聞が「決めた」と報じているのはなぜだろうか。専門家の一部には誤報と指摘する人もいる。日経新聞に取材確認したところ、推進会議のメンバー含む複数の取材から記者が報じたものだという。
ということは、記者は、決定事項と判断できる程度のメンバーや政府担当者から「認証制度を導入する」という意思を確認していることになる。
稚拙な認証制度は業界にマイナスに?
本来オープンな議論で指標やガイドラインを作るという主旨からすると、報道が事実だとすれば、プロセスに問題があると言わざるを得ない。議論する内容のうちいくつかは決定事項ということになり、パブリックコメントの募集や推進会議の意義が問われかねない。
現段階では決定事項ではないので、プロセスの問題は切り離したとしても、やはり認証制度は問題が多く、運用を間違えればAIの自然な発展にマイナスになる。
日経新聞の記事では、第三者による認証は公募案件で優遇されるということまで述べている。このような認証制度は、認証取得が目的化してしまい本来の趣旨や機能を果たさなくなる危険がある。
例えば、個人情報管理の認証である「Pマーク」だ。Tカードなどを運営するCCCは、顧客情報をグループ企業や契約企業で利用しやすくするため、個人情報管理ポリシーを変更したところ、Pマークの基準を満たさなくなり、例外的な更新保留の期間を経て2016年2月に返上している。Pマーク取得事業者による情報事故が増えており、制度が形骸化しているのではという声もあがっている(1月10日付 読売新聞報道より)。
【次ページ】危険なAI開発を抑止するための大方針は
関連コンテンツ
関連コンテンツ
PR
PR
PR