現在の人工知能はバイアスしている?
従来のコンピューターは、どのメーカーのどの開発部門でどういう仕様で設計され、製造されたか、つまり、生まれた時に組み込まれる機能がコンピューターの性能を決めました。しかし、これからの学習するコンピュータはむしろ、生まれた後でどこで誰によってどのようなデータで学習したか、つまりどのように育ったかによってシステムの素性や能力が決まるようになります。学習するデータの内容によって、出す結果も異なって来るのです。
製品の品質証明をするためには、そのコンピューターを作ったメーカーが行うだけでは不十分であり、学習させる組織・人が、どういうデータで、どのように学習させたかが重要になってきます。学習させる人の素性によっては、良くない結果をもたらすかも知れません。テロリストが学習させたシステムは、邪悪な結果を出す可能性がありますし、猿の画像ばかり学習させたコンピューターは、黒人を猿と誤認したりすることがあるでしょう。特定の国・宗教に対し、偏ったヘイト・スピーチばかり学習させれば、不適切な結果を出すなどの事例もあります。しかし、そもそも特定の専門分野で実用的になるためには、特定の専門領域にバイアスされた環境で学習させ、その環境に特化した人工知能(AI)が優れた結果を出すことになるでしょう。
このようにして、世の中には無数の専門化され、バイアスされたAIが存在することになります。もし特定の国や宗教にバイアスされたAIを作った場合、同じ質問に対して、出される結論は変わって来るかもしれません。正しいかどうかは、国の文化や政治体制によって異なるため、人間でも異なる見解となることがあるからです。国際間で公正な判断が必要な場合は、現在の国際仲裁裁判所やオランダハーグの国際司法裁判所の仕組みように、国際的なコンセンサスのもとに、複数のバイアスAIを仲裁するようなAIが出て来るかもしれません。また、人工知能の品質の真性を保障する機関のようなものが必要になってくるかもしれません。
0コメント