Apple、iCloud写真の児童性的虐待コンテンツを検出する機能を断念
バックドアやイタズラ行為を懸念する声が挙がっていた
Appleが児童性的虐待コンテンツ(Child Sexual Abuse Material = CSAM)を防止する機能の実装を断念した。WIREDに寄せられた公式声明文によると、Appleは昨年12月に発表した、子どもを保護するコミュニケーションセーフティ機能にさらなる投資を行うと宣言。その上で、iCloudフォトをスキャンすることで児童性的虐待コンテンツを検出する機能の実装は見送る決定をしたという。
Appleは、「子どもの保護は、企業が介入せずに個人情報を利用すれば実現できる。今後は政府、児童援護団体、他企業と協力し、若者の安全性やプライバシーを守り、子ども達をはじめすべての人にとってより安全な場所を目指す」とコメントしている。
Appleは2021年8月に子どもを保護する機能を3つ発表。1つ目は、iCloudフォトからCSAMに抵触する恐れのある写真の自動検出。2つ目は、メッセージアプリで性的描写を持つ写真にモザイクを自動的にかける機能。3つ目は、Siriや検索機能におけるCSAMのガイダンス機能の実装だ。
当初はiOS 15とiPadOS 15で実装する予定だったが、実装計画の公開直後より機能の是非を問う意見が殺到。多数のフィードバックを受け、一度は実装の延期を発表したが、ついに計画を畳む決断を下した。
実装を反対する意見の中には、iCloudのセキュリティを低下させる”バックドア”となる恐れや、悪意を持って他人の端末にCSAMを追加するイタズラを懸念する声が挙がっていた。
もっと読む
2021.09.10
2019.08.21
2019.08.18
2017.05.21
2017.05.21
2016.12.12
2016.12.01
2016.08.31
2015.09.16
2015.06.09
関連キーワード
コメント(0件)