当メディアのリンクにはアフィリエイト広告が含まれています

Appleのメッセージアプリで児童性的虐待コンテンツを検出する機能、日本で提供へ

ヌード写真が含まれるメッセージを警告、保護者に通達する機能

Iphone communication safety feature

Appleは、純正メッセージアプリで児童性的虐待コンテンツ(Child Sexual Abuse Material = CSAM)を防止する機能を、近いうちに日本で提供開始する。日本経済新聞が明らかにした。現在は米国、イギリス、ドイツ、フランス、イタリア、スペインなど合計9カ国で提供されており、iCultureによると、日本以外にも、オランダ、ベルギー、スウェーデン、韓国、ブラジルで提供する。

新機能は、「メッセージ」アプリで送受信されるメッセージ内にヌード写真が含まれる場合、警告を表示した上で保護者に知らせる。利用にはiCloudのアカウント設定および保護者による事前同意が必要となっている。ヌード写真の検出はAIが行う仕組みで、Appleはメッセージの中身やヌード写真の検出状況は把握していない。

米国ではネットサービスを利用した児童への性的虐待が社会問題化している。Appleは2021年12月にiCloud写真の児童性的虐待コンテンツを検出する機能を発表したが、専門家などからの批判を受け、導入を断念した。

もっと読む

12本の記事を表示する
公開情報
更新日2023年02月21日
執筆者g.O.R.i
コメント(0件)

コメントは承認後に表示されます。良識のあるコメントを心がけ、攻撃的な表現や他人が傷つく発言は避けましょう。なお、コメント投稿時に「利用規約」に同意したとみなします。

日本語が含まれない投稿は無視されますのでご注意ください。(スパム対策)

「Appleニュース・噂 ・最新情報」新着記事
トレンド検索