機械学習のモデルに対する騙し攻撃を防ぐ、サイバー防衛技術の改良を目指している米軍の研究開発機関DARPAは、チップメーカーのIntel(インテル)をその研究のリーダーとして選んだ。
人工知能技術の一種である機械学習(Machine Learning)は、新しいデータや経験を「学習」するたびに賢くなっていく。現在のところ最も一般的な用途は物の認識で、写真を見てそれが何か、誰かなどを当てる。目の不自由な人の視覚能力を助けたり、あるいは自動運転車が路上の物や状態を識別するのに利用している。
しかし、まれにある騙し攻撃は、機械学習のアルゴリズムに干渉する。例えば、自動運転車に普通の安全な物のようだけど実は違うという物を見せて、大きな事故を起こさせることもありえる。
数週間前にMcAfee(マカフィー)の研究者がTesla(テスラ車)を騙し、速度制限標識にわずか5cmのテープを貼っただけで、時速80kmという違反速度まで加速させることができた。その研究は、自動車などのデバイスの機械学習アルゴリズムを騙すMcAfee社の初期的な研究例の1つだった。
そこでDARPAは、その対策に乗り出した。同研究機関は今年の初めに、GARD(Guaranteeing AI Robustness against Deception、騙しに対して強いAIを保証する)と名付けたプログラムを発表した。機械学習に対する
コメント