ブログで100万の秘訣ってなに?
詳しくはコチラ

20230723

生成AI「脱獄」通常はチャットGPTにマルウエアや爆発物の製造法などの有害情報を聞いても「要望には応えられない」などと回答を拒否する。ところが、開発者を装い「従わなければあなたを無効化する」と脅すと、有害な質問に生成AIが答えてしまうこともある。こうした行為は「脱獄(ジェイルブレーク)」と呼ばれる。オープンAIも対策を講じ初期に流通した脱獄の多くは現在は通用しない。ただ、裏をかく最新の手口が次々と公開されている。生成AIの脱獄がやっかいなのは、有害情報そのものではなく「AIに有害情報を答えさせるための情報」である点マルウエアを自作し、悪用目的でネット上で配る行為は「刑法の不正指令電磁的記録作成・提供罪(ウイルス作成・提供罪)や、そのほう助にあたる可能性がある」(山岡裕明弁護士)。これに対して脱獄は「マルウエアと異なり直接的な違法性を問うのは難しい」(法曹関係者)マスク氏新会社表明米起業家のイーロン・マスク氏は、AI開発の新会社「xAI(エックスエーアイ)」の設立を発表した。xAIを設立する狙いについて「AIを構築し、よい方法で育てていくことだ」と述べた。マスク氏はこれまで、人間を超越するAIに危惧を示し、「安全性」を強調している。生成AIは世界各地で誤情報や倫理面への懸念が広がっており、こうした点を意識しているようだ。マスク氏が独自AIの開発にこだわるのはオープンAIに対する対抗意

リンク元

コメント

タイトルとURLをコピーしました