ビッグデータとディープラーニング(深層学習)

人工知能が学習していくためには、大量のデータが必要になってきます。データは石油に次ぐ第四の天然資源と言われており、大量のデータをおさえたものが勝利する、といわれています。データは格納しておくだけでは意味がありません。そこから分析によって意味ある情報を導き出すことが重要です。従来のテクノロジーでは分析するところまでは出来ても、様々な知見を知識としてたくわえ、過去の経験と照らし合わせて最終的に判断するのは人間の仕事でした。

今日の人工知能は、ビッグデータをもとに自ら学習し知見を見出します。これは1980年代に開発された人工知能とは根本的に異なるアプローチです。当時は人間が知見をルール化し、コンピュータにわかる形で記述して教え込まないと使えず、結局、人間の手間は直接プログラミングする場合とあまり変わらなかったため、あまりうまくいきませんでした。

人工知能の技術は、ビッグデータの存在と、2012年前くらいからのディープ・ラーニング(深層学習)の成功によって大きく進展しました。ディープラーニングを支えるテクノロジーとして、人間の脳の仕組みをソフトウェアで実現したのがニューラルネットワークです。

これは、ソフトウェアでニューロンやシナプスなどの人間の脳の神経細胞の構造をモデル化したものです。初期のニューラルネットは階層も少なく、抽象化を行うことが困難だったようですが、階層を増やすことで、人間が教えることなく、コンピュータ自らが大量の画像からその画像の特徴を抽出することに成功したのです。自ら学習するデープラーニングには膨大な計算能力が必要となります。2012年にグーグルが行った実験では、YouTubeから約1000万枚の画像をランダムに読み込ませ、意味ある画像として猫の顔を認知することに成功しましたが、ニューラルネットワークを1000台のサーバー上にソフトウェアで実現し、3日間、プログラムを走らせることが必要でした。

グーグルはこの仕組みをオープンソース化し、TensorFlow(テンソルフロー)のような誰でも使えるフレームワ-クとして公開しました。さらにKerasのようなライブラリが用意され、より簡単に開発できるよう日進月歩で環境の整備が進んでいます。ユーザーは誰でもこれらの枠組みを利用し、画像認識、学習・記憶、照合が行えるアプリケーションを開発することが出来るようになったのです。 

Serendi Research

Copyright 2019 Serendi Research All Rights Reserved.

0コメント

  • 1000 / 1000