Appleのメッセージアプリで児童性的虐待コンテンツを検出する機能、日本で提供へ
ヌード写真が含まれるメッセージを警告、保護者に通達する機能
Appleは、純正メッセージアプリで児童性的虐待コンテンツ(Child Sexual Abuse Material = CSAM)を防止する機能を、近いうちに日本で提供開始する。日本経済新聞が明らかにした。現在は米国、イギリス、ドイツ、フランス、イタリア、スペインなど合計9カ国で提供されており、iCultureによると、日本以外にも、オランダ、ベルギー、スウェーデン、韓国、ブラジルで提供する。
新機能は、「メッセージ」アプリで送受信されるメッセージ内にヌード写真が含まれる場合、警告を表示した上で保護者に知らせる。利用にはiCloudのアカウント設定および保護者による事前同意が必要となっている。ヌード写真の検出はAIが行う仕組みで、Appleはメッセージの中身やヌード写真の検出状況は把握していない。
米国ではネットサービスを利用した児童への性的虐待が社会問題化している。Appleは2021年12月にiCloud写真の児童性的虐待コンテンツを検出する機能を発表したが、専門家などからの批判を受け、導入を断念した。
もっと読む
2023.01.13
2022.12.21
2022.12.08
2022.12.07
2022.06.29
2021.09.29
2021.09.10
2020.10.02
2020.07.14
2019.02.11
2018.03.13
関連キーワード
コメント(0件)