データを中心としたエッジ・コンピューティング

データは今後もどんどん増え続け、2020年には44ゼタバイト(ゼタはエクサのひとつ上の単位)になると予想されています。これらのデータ解析に必要とされる膨大な計算需要に対応するために、これからは、IoTのデータ発生源となるエッジで計算されるような新しいITパラダイムが生まれるといわれています。それらのデータはあまりにも大きいため、コンピューティングのために、ネットワーク上を移動させるのはコスト上、あまり得策ではなく、データの存在するところで計算処理がなされるようなアーキテクチャーになっていきます。エッジでフィルタリングや前処理がされたデータの固まりは、クラウド上に上げられ、外部から呼び出し可能なサービスとして、計算機能とともにそれぞれのクラウドの基盤上に乗ってくるでしょう。

また、コンピュータ・アーキテクチャーのデザインについて見てみると、今までのノイマン型のコンピュータでは、いつもデータが存在するメモリーと計算機能の間のアクセス経路がボトルネックになっていました。計算をするためにはその元となるデータが必要なのですが、データを計算機能のところまで移動するには結構コストがかかっていたのです。プロセッサーとメモリー間のバンド幅を大きくしたり、より高速な通信をできるよう、両者の速度差を埋めるためのいろいろな仕組みが開発されました。しかし、今日のデータはあまりにも膨大です。データをコストをかけて計算資源に移動させるのではなく、データの存在するところでサービス機能を実行処理するための技術が開発されつつあるのです。

0コメント

  • 1000 / 1000