アップルは、iPhone内に保存された児童の性的虐待の画像を発見するための仕組みを、米国において導入する。
ここで用いられるソフトウェアは「neuralMatch(ニューラルマッチ)」と呼ばれる予定で、個人のiPhoneに保存されている画像と、米国の法執行機関のデータベースに登録されている画像を比較し、フラグが立てられた場合、審査が開始されるという。違法な写真であると判断された場合、法執行機関にアラートが出される。
ロイターによると、このシステムは、iCloudサーバーにアップロードされる前のiPhoneに保存されている写真を、チェックするものだという。
全文はこちら
https://forbesjapan.com/articles/detail/42723
参考
https://gigazine.net/news/20210806-apple-csam-icloud-photo-scan/
https://www.itmedia.co.jp/news/spv/2108/06/news063_0.html
- 関連記事