Apple(アップル)が2021年8月初めに発表した、児童への性的虐待コンテンツ素材(child sexual abuse material、CSAM)を検出する技術は、大きな反発を招いた。AppleがNeuralHashと呼ぶその技術はまだ、その10億あまりのユーザーに対して起動すらされていないが、すでにそのアルゴリズムは欠陥のある結果を出すと主張するセキュリティ研究者たちからの非難に直面している。
NeuralHashはユーザーのデバイスにある既知のCSAMを見つけるが、画像を所有したり、その画像のコンテンツを認知したりはしない。iCloudに保存されているユーザーの写真はエンド・ツー・エンドで暗号化されているため、Appleですらそのデータにアクセスできない。そのため、NeuralHashはそユーザーのデバイスにある既知のCSAMをスキャンし、Appleはこれをよりプライバシーフレンドリーだと主張している。それは他企業のようにすべてのユーザーファイルをスキャンするのではなく、写真だけを対象にスキャンするからだ。
Appleは、ユーザーのデバイス上で、NCMECといった児童保護団体から提供されたハッシュ(画像を一意に識別できる文字と数字の組み合わせ)が同じである画像を探すことでこれを行います。NeuralHashが30個以上の一致するハッシュを見つけた場合、その画像はApple
スポンサーリンク
また批判を浴びるアップルの児童虐待検出技術
最近の投稿
- 「悪口は自己紹介」である理由
- Boon raises $20.5M to build agentic AI tools for fleets
- LINEヤフーがBEENOSを約540億円で買収、LINE連携などで越境ECを強化
- 日本郵便、年末年始は「ゆうパック」などの配送に遅れが生じる可能性【2024年末~2025年始の対応まとめ】
- 『忠臣蔵』と無敵の人
- 働き続けるとごっそり"減額"される「年金の盲点」 定年後の再雇用で損しない働き方とは? | 家計・貯金 | 東洋経済オンライン
- 「銀河鉄道999」の映画に、どうしてあなたは感動してしまうのか?
- 国内4社目、宇宙ベンチャーがグロース上場。「宇宙に厳しい」市場の荒波、どう乗り越える
- 申請しないと「1円ももらえない」年金の"正体" 要件さえ満たせば年間で約40万円もアップ! | 家計・貯金 | 東洋経済オンライン
- A bad experience with an accounting firm spurred this founder to start Aiwyn
コメント