近年急激な発展を遂げたAI(人工知能)技術はコンピューター技術の発展が欠かせないものでしたが、実は意外と思えるほど古い時代からその概念が提唱されていました。そんなAIとそれを可能にするディープラーニングの歴史をムービー「History of Deep Learning」が振り返っています。

History of Deep Learning - YouTube

「ディープラーニング」は別名、「Deep Artificial Neural Networks」とも呼ばれ、ここから「ニューラルネットワーク」という呼び名が生まれています。



そのアルゴリズムの基となったのが、人間の脳にある神経ネットワーク「ニューロン」のモデルです。



その歴史は古く、少なくとも1943年にはすでにその概念が存在していたと考えられています。当時はまだ第二次世界大戦まっただ中の時代です。



ニューロンが別のニューロンから電気的な刺激を受け、一定の「閾値(いきち)」を超えると、そのニューロンは「発火」とも呼ばれる興奮状態になり、インパルスと呼ばれる電気信号を発することで信号を伝達します。この伝達レイヤー(層)は幾層にも及び、これが脳の複雑さにつながっています。



この信号伝達をアルゴリズムとして再現しようというのがニューラルネットワークの仕組みというわけです。しかし、この考えが提唱されだした頃はまだレイヤーの数が十分に再現できず、人間の脳を再現するアルゴリズムとしては不完全なものでした。



そのため、今では「人工知能の父」と呼ばれるコンピューター科学者のマービン・ミンスキー博士も、当時の技術の限界を説いて懐疑的な見方すら示していたとのこと。



ミンスキー氏が明らかにした限界点はその後、その内容が誤解・誇張されたことで、1970年代中盤から始まる1つめの「AIの冬の時代」を迎えることとなります。



しかし、そんな冬にも終わりが訪れます。それは1970年台後半から80年代にかけてのこと。



もっとも、当時もまだ学習に用いるためのプロセッサーの能力は十分に高いとは言えない時代。



AIの進化は、プロセッサーの能力向上と切っても切れないもの。そのため、ニューラルネットワークの専門家は常に性能の高いプロセッサを求める日々を送ります。



しかしそんな中、ある画期的なアイデアが登場しました。



それは、画像解析の際に用いられる「畳み込みニューラルネットワーク」や情報を何度も処理する「リカレントネットワーク」の考え方。



その代表的な例が、手書きの数字をコンピューターに学習させて認識させる、というもの。



この試みは、当時ベル研究所に所属していたヤン・レカン氏によって成し遂げられました。



レカン氏は現在、Facebookとニューヨーク大学でAI研究を率いています。



そして2006年、ジェフ・ヒントン氏は層の浅いニューラルネットワークを組み合わせることで、十分な多層性を備えた「ディープラーニング」の概念を提案しました。



そして、ヒントン氏らの研究チームはめざましい成果を成し遂げます。2009年、同チームはニューラルネットワークをわずか3週間ほどで十分に学習させられることを立証し、最先端の音声認識技術を確立させました。



その能力は、過去10年にわたって培ってきた技術を、わずか3週間ほどで成し遂げてしまうほどのもの。これは強烈なインパクトをAIの世界にもたらし、「第3次AIブーム」の時代が到来します。



その功績が認められ、2013年にヒントン氏はGoogleに加わることとなりました。また、前述のようにレカン氏もFacebookに所属。こうして、最先端のディープラーニングの研究者はいま、民間企業で世界最先端の研究を進めています。



ディープラーニングによる音声認識技術の精度は極めて高くなっており、「精度95%」は人間の能力をも凌駕するものとなっています。



このようにして、人類はロボットに人間と同等か、それ以上の能力を持つ「目と耳」を持たせるに至っています。今後もAIの進化はとどまるどころか加速度的に進行するものと考えられており、人間の能力を超えたAIがなにをもたらすのかは、もはや人間の想像の及ばない範囲となっていくことは間違いないといえそうです。