Apple、iCloud写真の児童性的虐待コンテンツを検出する機能を断念

iPhone・android
Appleが児童性的虐待コンテンツ(Child Sexual Abuse Material = CSAM)を防止する機能の実装を断念した。WIREDに寄せられた公式声明文によると、Appleは昨年12

リンク元

コメント

タイトルとURLをコピーしました