●データ

 過去数十年の間に、音楽CD、映画のDVD、ウェブサイトなどのデジタルコード化された情報が世界中で蓄積されてきた。しかし、この数年間で、デジタル情報の生成ペースは爆発的に高まっている。

 スマートフォンや産業機器に組み込まれた、センサーからの信号。デジタルの写真と動画。世界中でとめどなく流れる、ソーシャルメディアの洪水。これらを含め、他にも多くの情報源が組み合わさり、かつては考えられなかった「大量データ時代」が到来した。

 今日における世界のデジタルデータの90%は、過去2年の間に生成されたものだ。数十億もの新たな機器とデータストリームをつなげると目されている、IoT(モノのインターネット)の急成長も踏まえると、私たちは今後10年間で、さらに多くのデジタルデータと接することになるのは確実と思われる。

 ●アルゴリズム

 データの大量化が重要である理由は、既存のアルゴリズムをより効果的にするからだけでなく、より優れたアルゴリズムの開発を支え、後押しし、加速させるからでもある。

 現在AIの分野で最も主要なアルゴリズムとアプローチ――たとえば深層教師あり学習や、強化学習など――に共通する、一つの重要な基本特性がある。それは、システムに与えられる訓練データの量が増えるほど、結果が向上するということだ。

 旧来のアルゴリズムのパフォーマンスは通常、どこかの時点で横ばいになり、その後にデータを追加しても効果はほとんどない。しかし、今日広く使われている新しいアルゴリズムの多くには、この現象が当てはまらないようだ。新型のアルゴリズムはまた、学んだことを一つのアプリケーションから他のアプリケーションへと移植するため、より少ないサンプルからの学習が可能となっている。

 ●コンピュータハードウェア

 半導体の集積回路の性能は18~24ヵ月ごとに規則的に倍増する、と唱えたのがムーアの法則だ。提唱50周年を迎えた2015年時点では、この法則は依然として健在であった。

 だが最近になって、この現象は物理学の限界に直面しており今後数年で衰えるだろう、と述べる人たちが現れた。そして事実、標準的なマイクロプロセッサのクロック周波数は頭打ちとなっている。

 だが幸運にも、GPU(グラフィックス・プロセッシング・ユニット)と呼ばれるコンピュータチップが、ニューラルネットワークで必要な計算をする際に、きわめて効果的であることが判明した。実際、ニューラルネットの計算を従来のCPUからGPUに移行すると、処理速度が10倍増えることも珍しくない。

 GPUは元々、コンピュータゲームなどのアプリケーションでグラフィックを迅速に表示するために開発された。そこからスケールメリットが生まれ、単位原価が下がり、現在ではニューラルネットで多く使われるようになっている。

 ニューラルネットのアプリケーションがますます普及するなか、一部の企業は、そのために最適化された特別なチップを開発している。

 グーグルのTPU(テンサー・プロセッシング・ユニット)が一例だ。グーグル傘下ディープマインドの共同創業者シェーン・レッグによれば、一つのTPUデバイスで1日かかる訓練工程を、1990年のインテル製80486プロセッサで行えば、25万年かかるという。こうした発展もまた、アルゴリズムの10倍向上に資する要因である。