20世纪最受欢迎的深度学习论文Long Short-Term Memory

知识不是凭空而来的,一定有历史循序。即使灵光一闪有所发明,也是基于自己前期或者前人的积累,无论区块链还是人工智能,都不是一个人一蹴而就,都是站在巨人的肩膀上。

人工智能、机器学习、神经网络、深度学习,这四个方向的范围依次深入和专注,特别是新型构建训练和使用神经网络的深度学习Deep Learning,更是机器学习中的翘楚,应用广泛效果显著,是机器学习革命的核心。

深度学习的巨人肩膀有很多,其中最著名的当属Sepp Hochreiter和Jürgen Schmidhuber在1997年发布在神经计算(Neural Computation)上的一篇论文,Long Short-Term Memory,中文是长短期记忆,简称为LSTM,它是一种时间递归式的神经网络,可以在麻省理工学院出版社(The MIT PressJournals)上看到。

很多的深度学习方面的研究论文都参考和应用了Long Short-Term Memory,在谷歌学术上,该论文被引用的次数目前为26166,是20世纪最受欢迎的深度学习论文。

麻省理工学院出版社上的Long Short-Term Memory:
Long Short-Term Memory

神经计算Neural Computation:
https://www.mitpressjournals.org/loi/neco

登录注册后才能评论。