バイアスしていない汎用AIの開発は可能か?

専門知識だけを学習した人工知能(AI)は、ともすると人間の常識から考えておかしい結果を出す恐れがあります。人間にとってあたりまえといえる暗黙知を学習する必要があるからです。この暗黙知を学習するためには膨大なデータが必要になります。しかも特定の国や宗教にバイアスされていない必要があります。最終的に全人類に公正をもたらす汎用AIを開発することは可能なのでしょうか?

ハーバード大学のマイケル・サンデル教授の白熱教室にあるような究極の選択を人工知能はどのように解決するのでしょうか?例えば、もし、自動運転の車が二者択一の事態を迫られた場合、どうするか、という問題です。高速で走行中の車が、ブレーキを踏んでもそのまま進んで行けば10名の死者が出る事故になるが、ハンドルを切れば、犠牲者は脇にいる1人ですむ、という事態です。この事態ではそれ以外の選択肢はない、との仮定を置いた場合、合理的に考えれば、被害が少なくなるようにハンドルを切る、を選ぶと思いますが、もし、その一人が大統領だったらその選択は正しいでしょうか?問題の正解は立場や価値観によって異なってくるでしょう。

シンギュラリティが近づけば、暗黙知データを学習する速度が指数関数的に高まり、正解にたどり着く可能性は大きくなると思います。特定の信条にバイアスされていない汎用AIを作ることも可能と思います。専門AIの能力評価を客観的にフィードバックする仕組みをつくり、専用AIと汎用AI間で相互にコミュニケーションをとることにより、どんな問題にも応えられるAIを作ることは可能でしょう。

シンギュラリティの捉え方として、汎用AIが人間の知能を超えるのではないか、という懸念があります。しかし、そのような汎用AIのイメージはあくまでも人間の能力を補完・拡張するものであり、人間の制御を超えて暴走したり、自律的に人に背いたりするようになるとは理解していません。あくまでも、人間の制御下で人間に役に立つAIをイメージしています。

0コメント

  • 1000 / 1000