ニュースレター登録

Loading

オールドメディアが伝えない海外のニュース

Apple社は今週から米国内の全iPhoneの写真をモニタリング開始——「Apple社はプライバシーを後退させ『1984』の世界を可能にしようとしている」

Photo via pxfuel

【この記事の短縮URL】 https://bonafidr.com/I0P2b (『https://』は省略可能です)

スマートフォンは、もはやそのユーザを監視・追跡するためのスパイ・ツールとなっているが、Apple社は今週から米国内の全てのiPhoneに対して「児童性的虐待資料(CSAM)*」の監視を行う新プログラムを開始する。フィナンシャルタイムズ(FT)紙が8月5日(木曜)に報じた(有料記事)

 

*「CSAM」は、“Child Sexual Abuse Materials”(児童性的虐待資料)の頭文字。

 

米国内のiPhoneユーザがCSAMを所持していないかを監視するこの新システムは、「ニューラル・マッチ(neuralMatch)」と呼ばれており、今週末にアップル社から発表される予定。この新システムは、ソフトウェア・アップデートによって米国のiPhoneにインストールされる予定。

 

FT紙によると、この自動システムは、ユーザーのiPhoneにCSAMが存在すると思われる場合、人間の検閲チームに積極的に警告する。検閲担当者が証拠資料を確認できた場合、法執行機関に通知する。

 

FT紙は、「ニューラル・マッチ(neuralMatch)」の仕組みを次のように報じている:

Apple社の「ニューラル・マッチ」アルゴリズムは、米国のユーザーのiPhoneに保存された写真、およびiCloudのバックアップシステムにアップロードされた写真を継続的にスキャンすることになる。ユーザーの写真は、「ハッシュ化」と呼ばれるプロセスによって数字の羅列に変換され、児童の性的虐待に関する既知の画像のデータベースと比較される。

 

(中略)

 

このシステムは、米国の非営利団体「行方不明者および搾取された子どもたちのためのセンター(National Center for Missing and Exploited Children)」が収集した20万枚の性的虐待画像を使って訓練されている。

 

このソフトウェアを事前に見ることが許された1人の学者は、これが深刻なプライバシーリスクを引き起こす可能性がある理由を説明している。

 

Apple社については、これまでユーザーのプライバシーを重視する同社の姿勢について多くの好意的な報道が行われてきた。例えば、カリフォルニア州サンバーナーディーノ銃乱射事件の犯人の一人が所持していたiPhoneのパスワードを解除するようFBIが要請した際、Apple社はこの要請を拒否したことが全米で大々的に、しかも好意的に報じられた。しかしiPhoneに利用されているこの暗号化技術は、法執行機関にとって長年の頭痛の種となっている。昨年1月、Apple社は、ユーザーがiCloudのバックアップを完全に暗号化できるようにする計画を、FBIからの苦情を受けて密かに断念している。

 

しかし、Apple社は妥協点を見出し、iPhoneの取り締まりにある程度の責任を持つという方向に舵を切ったようだ。これを実行するために、Apple社は、児童ポルノを表すことで知られる特定の「知覚的ハッシュ」に一致する画像をiPhone上でスキャンする、新しい機械学習ツールを導入する。しかし、研究者たちが訴えているように、このツールは間違った方向に利用される可能性がある。

 

さらに、児童ポルノを暴くために使われている現在のツールは、将来的に(チャイナ共産党のような)権威主義的な政府に悪用される可能性がある。そして、いったんApple社がこの種の監視システムを利用することを政府に約束すれば、政府は他のあらゆる組織・企業にもそれを要求するようになることが容易に想像できる。

 

ジョンズ・ホプキンス大学で暗号技術を教えるマシュー・グリーン氏は、次のように警鐘を鳴らしている:

【訳】CSAMをスキャンする用のクライアント・サイドのツールを、Apple社が明日リリースするということを、複数の人たちから独自に確認した。これは本当に悪いアイデアだ。

 

【訳】これらのツールにより、Apple社はあなたのiPhoneの写真をスキャンして、特定の知覚的ハッシュに一致する写真を探し、あまりにも多く(そうした写真が)出現した場合にはApple社のサーバーに報告する。

 

【訳】最初は、クラウドに保存された写真をクライアント側でスキャンするために使用されると私は理解している。最終的には、暗号化されたメッセージング・システムに対する監視機能を追加するための重要な要素になる可能性がある

(太字強調はBonaFidr。以下同様。)

 

【訳】このようなスキャン・システムを、E2E(エンドツーエンド)の暗号化メッセージング・システムに追加できることは、世界中の法執行機関からの大きな「要望」である。これ(添付)はウィリアム・バー元司法長官をはじめとする西側諸国の政府が署名した公開書簡。

 

【訳】この種のツールは、人々の携帯電話の中から児童ポルノを見つけ出すのに便利なものになり得る。しかし、それが権威主義的な政府の手に渡れば何ができるか?と想像してみてほしい。

 

【訳】Apple社がこれを投入するやり方は、人々がすでにクラウドで共有している、E2E(エンドツーエンド)暗号化が行われていない写真から始めようとしている。そのため、誰のプライバシーも「傷つける」ことはない。

 

しかし、もしE2E暗号化が行われた写真をスキャンすることが目的でないのなら、なぜこのようなシステムを開発したのかという質問をしなければいけない。

 

【訳】しかし、たとえあなたがApple社はこれらのツールの悪用を許さないと信じていたとしても🤞、懸念すべき点はたくさんある。これらのシステムは、「問題ある画像のハッシュ」のデータベースに依存しており、消費者であるあなたはそれを確認することができない。

 

【訳】ハッシュ化は、Apple社が開発し、NCMECに使用許可を受けた、新しい独自のニューラル・ハッシュ・アルゴリズムを使って行われる。

 

私たちはこのアルゴリズムについてはよくわかっていない。もし誰かがコリジョン(データ同士の衝突)を起こせるとしたら?

 

【訳】誰かがあなたに完全に無害な政治的画像ファイルを送り、あなたがそれを友人と共有したとする。しかし、そのファイルが既知の児童ポルノファイルとハッシュを共有していたとしたら?

 

【訳】これらの画像は、Apple社が開発中の新しいハッシュ関数よりもはるかに単純なハッシュ関数を使って行われた調査からのものである。このようなコリジョン(データ同士の衝突)を発見するために、機械学習がどのように利用できるかをこれらは示している。

 

【訳】Apple社は「プライバシー」を重視する企業であるという考えから、同社については多くの肯定的な報道が行われている。しかし、この会社は、FBIが圧力をかけたために、iCloudのバックアップを暗号化しないことにした会社であることを忘れてはいけない

 

Apple社の「ニューラル・マッチ(neuralMatch)」に反対している専門家は、グリーン氏だけではない。ケンブリッジ大学でセキュリティ・エンジニアリングが専門のロス・アンダーソン教授は、次のようにコメントしている:

私たちの携帯電話やノートパソコンを・・・分散して大量に監視することになるのですから、これは全くゾッとする考えです

 

しかしFT紙は、Apple社のアプローチに賛同する研究者を1人見つけ出してきて次のように紹介している:

サリー大学のコンピュータセキュリティ教授であるアラン・ウッドワード氏は、「Apple社のシステムは、スクリーニングが携帯電話上で行われ、そして『一致した場合にのみ、検閲者に通知が送られる』という点で、侵襲性が低い」と述べている。「このような分散型のアプローチは、この方向に進む場合に採用できる最良のアプローチだ」とウッドワード教授は述べている。

 

しかし他の研究者たちは、ジョージ・オーウェルが描いた小説「1984」の監視社会まであと数歩のところまで来ていると警鐘を鳴らしている。Facebook社やDeliveroo社の元社員で、セキュリティ研究者であり、かつプライバシーの重要性を訴える活動家でもあるアレック・マフェット氏は、Apple社の動きは「地殻変動を引き起こすもの」であり、「個人のプライバシーを大きく後退させるもの」であると述べている。「Apple社はプライバシーを後退させ、『1984』の世界を可能にしようとしている」と同氏は語っている。

BonaFidrをフォロー
error: コンテンツは保護されています。