0
会員になると、いいね!でマイページに保存できます。
共有する
米テック大手のアップルは、自社のデバイスやエコシステムにおいてプライバシーを「基本的人権」と位置付け、「顧客が自分の情報を自分でコントロールできること」をウリにするマーケティングを展開してきた。同社にとってプライバシーは、ライバル企業との競争において優位を示す重要な役割を果たしてきた。そのアップルが8月に、自社デバイスにおける児童への性的虐待画像(児童ポルノ)検出技術を2021年後半にiOSおよびmacOSデバイスで展開すると発表し、批判を浴びて実装延期に追い込まれた。何が問題になったのか。
アップルの児童ポルノ検出技術、誤検出は1兆分の1
アップル製品やサービスには「信者」と呼ばれる宗教的なファンがいる。優れた機能やデザインに加え、競合にはマネができないレベルのプライバシー保護が魅力の1つだ。事実、9月にリリースが予定されるiOS15は、利用者の情報を守り、プライバシー保護強化やつながりやすさを高める機能がセールスポイントとなっている。
また、アップルは自社Webサイトで、「どの体験を誰と共有するかは自分自身で決めるべきこと。私たちは、あなたのプライバシーを守り、自分の情報を自分でコントロールできるようにApple製品を設計しています。簡単なことではありませんが、それが私たちの信じるイノベーションだからです」と宣伝してきた。
ところが、アップルが開発したNeuralHashと呼ばれる児童性的虐待画像(child sexual abuse material、略称はCSAM)検出技術では、米国内限定でiCloudアカウントのみを対象に、デバイス上に民間非営利団体の「全米行方不明・被搾取児童センター(NCMEC)」やその他の組織が認定した既知のCSAMが存在しないかをスキャンする。なお、誤検出の可能性は1兆個のアカウントで1つ、つまりほぼ皆無だと、アップルは主張している。
このプロセスでは、アップルが端末上のコンテンツの内容を認識することは一切なく、NeuralHashが30個以上の一致するハッシュを見つけた場合に限りフラグが立てられ、アップルの手動審査を経て、同社がデバイスの所有者アカウントを全米行方不明・被搾取児童センターのCyberTiplineに報告する仕組みとなっている。同センターは米議会により設立・予算配分を受ける組織であり、アップルが提供した情報を基に要件審査を行い、法執行機関に児童虐待を報告する。
なお、
連邦法 はプロバイダーがシステム上に存在するCSAMに気付いた場合、同センターに報告することを義務付けているが、プロバイダーがシステムや顧客端末を積極的にスキャンして性的虐待画像を探すよう求めてはいない。つまりアップルは、あくまで自主的かつ予防的に、法的根拠抜きでNeuralHashの開発・実装計画を行っているわけだ。
さらにアップルは、2019年からiCloudメールの添付ファイルをスキャンして、自社サービスがCSAM交換の温床にならないような対策を採っていたと認めたと報じられている。同社の過去のWebサイトでは、「アップルは画像照合技術を使って児童搾取の発見と報告を支援しています。電子メールのスパムフィルターのように、アップルのシステムは電子署名を使って児童搾取の疑いがあるものを見つけ出します」と述べられていたという。
【次ページ】iCloudを使わなければ実行されないが…
関連タグ