AIの倫理規定を試行し参加を呼びかける欧州委員会
欧州委員会は、人工知能技術を開発し、適用する際の倫理規定の草案をテストする試験的プロジェクトを開始することを発表した。そうした規定を実際に施行できることを確認するためだ。
このプロジェクトでは、フィードバックを集積し、いわゆる「人間中心のAI」についての国際的な合意形成を促すことを目指している。さまざまな懇談会だけでなく、今後のG7やG20といった場で議論を盛り上げることが目標だ。
欧州委員会のAIに関するハイレベルグループは、産業界、学界、市民社会にまたがる52人の専門家によって構成されるもので、昨年の夏に公告された。そして昨年12月には、信頼できるAIについての倫理ガイドラインの草案を発行した。
さらにその文書の改訂版が、この3月に委員会に提出された。そこでは、専門家の意見を、信頼できるAIのための7つの「キーとなる要件」に集約している。その中では、既存の法律と規制を遵守する機械学習技術のあり方についても触れている。以下、順に見ていこう。
人為作用と監視:「AIシステムは、人為作用と基本的権利を尊重することによって公平な社会を実現すべきであり、人間の自律を縮小、制限、または誤らせるものであってはならない」
堅牢性と安全性:「信頼できるAIには、安全性、信頼性、および堅牢性を確保するためのアルゴリズムが必要であり、それはAIシステムのすべてのライフサイクルにおけるエラーや矛盾
コメント