人種間の不平等に関する抗議活動が拡大してから、IBMは警察権行使の際の人種的平等を推進するため、顔認識技術の提供を中止すると発表した。 Amazon(アマゾン)はRekognitionソフトウェアの警察への提供を1年間停止し、「顔認識技術の倫理的使用に関するルールを定める強力な内規を導入した」。
だが内規の変更以上のものが必要だ。人工知能(AI)業界全体がコンピューターサイエンスの研究所を超えて成熟し、コミュニティ全体を受け入れる包容力が必要とされている。
偏見を広く排除しながら社会で機能する素晴らしいAIを開発することは可能だ。だが、現在のようにAIがコンピューターサイエンス(CS)やコンピューターエンジニアリング(CE)の単なる一分野にとどまるなら、それは実現できない。人間の振る舞いの複雑さを考慮してAIという学問分野を形成する必要がある。コンピューターサイエンスが支配するAIからコンピューターサイエンスによって何かが実現するAIに移行しなければならない。AIに伴う問題は研究所で発生するわけではない。科学者がテクノロジーを現実世界に移すときに発生するのだ。CSラボのトレーニングデータには多くの場合、あなたや私が住む世界の文脈と複雑さが欠けている。この欠陥が偏見を永続させる。
AIを利用したアルゴリズムは有色人種や女性に不利なバイアスを示すことがわかっている。たとえば2014年
コメント