テック業界は、AIが生成したコンテンツにウォーターマーク(透かし)を入れるなど、さまざまな取り組みで連携を図っているが、一部の専門家はもっとやるべきことがあると警告している。
モジラ(Mozilla)が最近発表したリポートで示唆されたのは、AIコンテンツの開示や検出によく使われている手法ではAIで生成された誤情報に伴うリスクを十分に阻止できないとのことだった。多くのAIコンテンツプロバイダーやソーシャルメディアプラットフォームで使われている現在の対策は、「悪事を働く者に対抗できるほど強力ではない」と、研究者らは2月26日に発表されたこの分析結果で指摘している。
研究者らが分析したのは、AIコンテンツにラベルを付けて表示や音声で警告するという「人間向け」の手法と、暗号技術の使用、メタデータの埋め込み、統計的パターンの追加など、機械で読み取り可能なウォーターマークの手法だった。
AI生成コンテンツとインターネット進化の新たなリスク
AI生成コンテンツの広がりが、インターネットでのコンテンツ配信手段の進化と同時に起きていることが、固有のリスクを生み出している。モジラは、技術的な解決策に焦点を当てるだけでは、よりターゲットを絞った政治広告など、広範な影響をもたらすシステム的な問題の解決が置き去りにされかねないと指摘し、自己開示だけでは十分ではないとした。
モジラのリポートの著者は、「ソーシ
コメント