ブログで100万の秘訣ってなに?
詳しくはコチラ

アップルが次期iOS15での児童性的虐待コンテンツ検出技術導入を延期

最近の投稿
Apple(アップル)は、顧客や政策グループからのフィードバックを考慮して、2021年8月に突然発表した児童性的虐待コンテンツ(CSAM)検出技術の展開計画を延期した。
振り返ってみれば、そのフィードバックは大部分が否定的なものだった。Electronic Frontier Foundation(EFF、電子フロンティア財団)は今週、消費者から2万5000を超える署名を集めたと語っている。またそれに加えて100に迫る政策ならびに権利団体(「アメリカ自由人権協会」も含まれている)も、Appleに技術を展開する計画を放棄するように呼びかけていた。
関連記事
・アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ
・また批判を浴びるアップルの児童虐待検出技術
米国時間8月3日朝の声明で、AppleはTechCrunchに次のように語った。
「先月私たちは、コミュニケーションツールを使用して子どもを引き込んだり悪用したりするする捕食者たちから子どもたちを保護し、児童性的虐待コンテンツ(CSAM)の拡散を制限することを目的とした機能の計画を発表しました。しかし顧客の皆さま、プライバシー擁護団体、研究者の方々などからのフィードバックに基づいて、これらの非常に重要な子どものための安全機能をリリースする前に、今後数カ月にわたってさらに意見や情報を収集し、機能を改善す

リンク元

コメント

タイトルとURLをコピーしました