
AppleのCSAMスキャン計画は中止されたかもしれないが、論争は終結していない。オーストラリアの規制当局は、同社が児童の性的搾取に目をつぶっていると非難した。
彼女は、アップルとマイクロソフトの両社が「最も脆弱な人々を最も略奪的な人々から」保護するための措置を講じていないと述べた…
背景
児童性的虐待素材(CSAM)を検出する一般的な方法は、Googleフォトなどのクラウドサービスでアップロードされた写真をスキャンし、既知のCSAM画像のデータベースと比較することです。このデータベースは、NCMECや世界中の同様の組織によって提供されています。
実際の照合プロセスでは、ハッシュ、あるいはデジタル指紋と呼ばれるものが使用されます。これは画像の主要な要素から算出され、意図的に曖昧にされているため、画像がサイズ変更、トリミング、その他の処理を受けても引き続き機能します。そのため、誤検知が発生する場合があります。つまり、無害な画像であっても、ハッシュがCSAMのハッシュとほぼ一致する場合です。
Appleは、クラウドではなくユーザーのiPhone上でスキャンを行うという、よりプライバシーに配慮したアプローチを計画していたが、サイバーセキュリティの専門家、人権団体、政府、そしてAppleの従業員らは皆、この計画について4つの懸念を表明した。
Apple 社はこの反発に驚いたようだったが、同社は「iPhone 上で起こったことは iPhone 内にとどまる」というプライバシー重視のメッセージを常に発信しているため、これは完全に予想可能だったと当時私たちは指摘した。
同社は巨大な看板を掲げ、ユーモラスな広告を展開し、プライバシーに関する専用マイクロサイトを開設しました。CEOはあらゆるインタビューや公の場でプライバシーについて語っています。プライバシーをめぐっては、他の巨大IT企業を攻撃し、新たなプライバシー機能をめぐっては広告業界全体と争ってきました。
当初、懸念事項を検討し、プライバシー保護策を強化するため、展開を一時停止すると発表していたAppleでしたが、その後、ひっそりとこの機能に関する言及をすべて削除しました。質問に対し、Appleはこの機能はキャンセルされたのではなく、延期されただけだと説明しました。しかし、先週、状況は一変しました。
同社は、すべてのiCloudデータにエンドツーエンドの暗号化を導入する「Advanced Data Protection(高度なデータ保護)」を発表した同日、これまで公開されることのなかったCSAMスキャンも終了した。このニュースは、Appleのソフトウェアエンジニアリング担当副社長クレイグ・フェデリギ氏がWSJのジョアンナ・スターン記者とのインタビューで確認した。
オーストラリアの規制当局はアップルが見て見ぬふりをしていると非難
ロイター通信は、オーストラリアの電子安全コミッショナーが、CSAM の共有を防ぐ役割を果たさなかったとして Apple と Microsoft の両社を非難したと報じている。
インターネット利用者の保護を目的として設置された機関、eセーフティ・コミッショナーは、世界最大手のインターネット企業数社に法的情報要求を送ったところ、アップルとマイクロソフトが自社のストレージサービス「iCloud」と「OneDrive」で児童虐待コンテンツの有無を積極的に検査していなかったことが判明したと述べた。
プライバシー擁護団体からの圧力を受けて、アップルが1週間前にiCloudアカウントの児童虐待スキャンを停止すると発表したことは、「子供たちの安全を守るという責任からの大きな後退だ」とインマン・グラント氏は述べた。
両社がライブストリーミングによる虐待を検知できなかったことは、「世界最大かつ最も裕福なテクノロジー企業の一部が見て見ぬふりをし、最も脆弱な人々を最も搾取的な人々から守るための適切な措置を講じなかった」ことに等しいと彼女は付け加えた。
Appleがこの新たな立場を維持できるかどうかはまだ分からない。同社は将来、CSAMの検出を求める法的義務に直面する可能性がある。
写真:プリシラ・デュ・プリーズ/アンスプラッシュ
www.ranphe.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。