

2021年、AppleはiCloudフォトにおける児童性的虐待素材(CSAM)検出機能を含む、いくつかの新しい子ども向け安全機能を発表しました。しかし、プライバシーへの懸念から、この動きは広く批判されました。Appleは、このCSAM検出システムの導入計画を無期限に延期した後、ついに中止したと発表しました。
AppleはiCloud写真でCSAMをスキャンしなくなる
同社は、すべてのiCloudデータにエンドツーエンドの暗号化を導入する「Advanced Data Protection」を発表した同日、これまで公開されることのなかったCSAMスキャンも終了した。このニュースは、Appleのソフトウェアエンジニアリング担当副社長クレイグ・フェデリギ氏がWSJのジョアンナ・スターン記者とのインタビューで確認した。
CSAMスキャンが発表された際、AppleはiCloudフォトがCSAM画像ハッシュのデータベースに基づいてユーザーの写真に不適切な素材が含まれているかどうかを検出できると述べていました。これにより、Appleはユーザーの写真を確認することなく、デバイス上での処理によって不適切な写真を検出できるようになります。
画像がiCloudフォトに保存される前に、デバイス上で、その画像と既知のCSAMハッシュの読み取り不可能なセットとのマッチング処理が実行されます。このマッチング処理は、Private Set Intersection(PSI)と呼ばれる暗号化技術によって実現されており、結果を公開することなく一致の有無を判断します。Private Set Intersection(PSI)により、Appleは画像ハッシュが既知のCSAM画像ハッシュと一致するかどうかを把握できますが、一致しない画像ハッシュについては何も把握しません。また、PSIはユーザーが一致の有無を知ることも防止します。
それでも、CSAMスキャンはユーザーから多くの批判を浴びました。昨年9to5Macに宛てた声明の中で、同社は「今後数ヶ月かけて意見を集め、改善を重ね、これらの極めて重要なチャイルドセーフティ機能をリリースする」ことを決定しました。
AppleはiCloudフォトにおけるCSAMスキャンを廃止することを決定したようです。ただし、iMessageの制限など、その他の子ども向け安全機能はiOSで引き続き利用可能であることは注目に値します。
この決定についてどう思いますか?下のコメント欄で教えてください。
pracool.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。