完整的深度学习论文导引

月城雪兔 2017-08-11

对于大多数想上手深度学习的小伙伴来说,“我应当从那篇论文开始读起?”

有没有一份完整的深度学习论文导引,让所有人都可以在里面找到想要的内容呢?

它让大家对整个深度学习领域及其个枝干都能有一个相对完整的理解。

这份阅读列表的组织原则是这样的:

  • 从全局到枝干:从综述类,全局性的文章到细分领域的具体论文。
  • 从经典到最前沿:每个话题的文章都是按时间顺序来排的,可以清晰给出每个方向的发展脉络。
  • 从通用理论到具体应用:有些论文是针对深度学习通用理论的,有些论文章则针对具体的应用领域。
  • 专注于最先进的研究:收集有许多最新论文,保证阅读列表的时效性。

当然,这里的每个话题都只选几篇最具代表性的论文,深入研究的话,还需要更进一步的阅读。

基于这些论文的影响力,你会发现很多新近发表的文章也值得一读。此外,这份阅读列表在原文页面会不断更新,值得你时时备查。

https://github.com/songrotek/Deep-Learning-Papers-Reading-Roadmap

深度学习基础及历史

1.0书

[0]深度学习圣经★★★★★

本吉奥,Yoshua,Ian J. Goodfellow和Aaron Courville。“深入学习”。麻省理工学院出版社(2015年)。
https://github.com/HFTrader/DeepLearningBook/raw/master/DeepLearningBook.pdf

1.1报告

[1]三巨头报告★★★★★

LeCun,Yann,Yoshua Bengio和Geoffrey Hinton。“深入学习”。Nature 521.7553(2015):436-444。 http://www.cs.toronto.edu/%7Ehinton/absps/NatureDeepReview.pdf

1.2深度信念网络(DBN)

[2]深度学习前夜的里程碑★★★

Hinton,Geoffrey E.,Simon Osindero和Yee-Whye Teh。“深度信念网的快速学习算法”。神经计算18.7(2006):1527-1554。
http://www.cs.toronto.edu/%7Ehinton/absps/ncfast.pdf

[3]展示深度学习前景的里程碑★★★

Hinton,Geoffrey E.和Ruslan R. Salakhutdinov。“用神经网络降低数据的维数”。科学313.5786(2006):504-507。 http://www.cs.toronto.edu/%7Ehinton/science.pdf

1.3 ImageNet革命(深度学习大爆炸)

[4] AlexNet的深度学习突破★★★

Krizhevsky,Alex,Ilya Sutskever和Geoffrey E. Hinton。“具有深卷积神经网络的Imagenet分类”。神经信息处理系统的进展。2012。
http://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf

[5] VGGNet深度神经网络出现★★★

西蒙妮,凯伦和安德鲁Zisserman。“用于大规模图像识别的非常深的卷积网络”。arXiv preprint arXiv:1409.1556(2014)。 https://arxiv.org/pdf/1409.1556.pdf

[6] GoogLeNet★★★

Szegedy,Christian,et al。“卷入更深入”。IEEE计算机视觉与模式识别会议论文集。2015年。 http://www.cv-foundation.org/openaccess/content_cvpr_2015/papers/Szegedy_Going_Deeper_With_2015_CVPR_paper.pdf

[7] ResNet极深度神经网络,CVPR最佳论文★★★★★

他,凯明,等“图像识别的深度残差学习”。arXiv preprintarXiv:1512.03385(2015)。 https://arxiv.org/pdf/1512.03385.pdf

1.4语音识别革命

[8]语音识别突破★★★★

Hinton,Geoffrey,et al。“语音识别中声学建模的深层神经网络:四个研究小组的共同观点”。IEEE信号处理杂志29.6(2012):82-97。 http://cs224d.stanford.edu/papers/maas_paper.pdf

[9] RNN论文★★★

格雷夫斯,亚历克斯,阿卜杜勒 - 拉赫曼·穆罕默德和杰弗里·亨顿。“具有深层次神经网络的语音识别”。2013 IEEE国际声学,语音和信号处理会议。IEEE,2013。 http://arxiv.org/pdf/1303.5778.pdf

[10]端对端RNN语音识别★★★

坟墓,亚历克斯和Navdeep Jaitly。“用循环神经网络实现终端语音识别”。ICML。卷。2014年。 http://www.jmlr.org/proceedings/papers/v32/graves14.pdf

[11] Google语音识别系统论文★★★

Sak,Haşim,et al。“用于语音识别的快速准确的神经网络声学模型”。arXiv preprint arXiv:1507.06947(2015)。 http://arxiv.org/pdf/1507.06947

[12]百度语音识别系统论文★★★★

Amodei,Dario等“深度讲话2:英文和普通话的端对端语音识别”。arXiv preprint arXiv:1512.02595(2015)。 https://arxiv.org/pdf/1512.02595.pdf

[13]来自微软的当下最先进的语音识别论文★★★★

W.熊,J. Droppo,X. Huang,F. Seide,M. Seltzer,A. Stolcke,D. Yu,G. Zweig“Achieving Human Parity in Conversational Speech Recognition”。arXiv preprint arXiv:1610.05256(2016)。 https://arxiv.org/pdf/1610.05256v1

读完上面这些论文,将对你深度学习的历史,深度学习模型(CNN,RNN,LSTM等)基本的架构有一个基本认识,并理解能学习深度的英文如何解决图像及语音识别问题的接下来。的将论文带你深入理解深度学习方法,深度学习在前沿领域的不同应用。根据自己的兴趣和研究方向选择阅读即可:

深度学习方法

2.1模型

辍学 ★★★

Hinton,Geoffrey E.,et al。“通过防止特征检测器的共同适应来改善神经网络”。arXiv preprint arXiv:1207.0580(2012)。 https://arxiv.org/pdf/1207.0580.pdf

[15]过拟合★★★

Srivastava,Nitish,et al。“辍学:一种防止神经网络过度配合的简单方法”。机器学习研究杂志15.1(2014):1929-1958。 http://www.jmlr.org/papers/volume15/srivastava14a.old/source/srivastava14a.pdf

[16]批次归化 - - 2015年杰出成果★★★★

Ioffe,Sergey和Christian Szegedy。“批量归一化:通过减少内部协变量来加速深入网络训练。arXiv preprint arXiv:1502.03167(2015)。 http://arxiv.org/pdf/1502.03167

[17] Batch归一化的升级★★★★

Ba,Jimmy Lei,Jamie Ryan Kiros和Geoffrey E. Hinton。“层规范化”。arXiv preprint arXiv:1607.06450(2016)。 https://arxiv.org/pdf/1607.06450.pdf

[18]快速训练新模型★★★

Courbariaux,Matthieu,et al。“二进制神经网络:训练神经网络的权重和激活约束为+ 1或-1”。 https://pdfs.semanticscholar.org/f832/b16cb367802609d91d400085eb87d630212a.pdf

[19]训练方法创新★★★★★

Jaderberg,Max,et al。“使用合成梯度解耦神经接口”。arXiv preprint arXiv:1608.05343(2016)。 https://arxiv.org/pdf/1608.05343

[20]修改预训练网络以降低训练耗时 ★★★

陈天奇,Ian Goodfellow和Jonathon Shlens。“Net2net:通过知识转移加速学习”。arXiv preprint arXiv:1511.05641(2015)。 https://arxiv.org/abs/1511.05641

[21]修改预训练网络以降低训练耗时 ★★★

魏涛等“网络形态”。arXiv preprint arXiv:1603.01670(2016)。 https://arxiv.org/abs/1603.01670

2.2优化

动力优化器★★

Sutskever,Ilya,et al。“深入学习初始化和动力的重要性”。ICML(3)28(2013):1139-1147。 http://www.jmlr.org/proceedings/papers/v28/sutskever13.pdf

[23]可能是当前使用最多的随机优化 ★★★

金马,迪德里克和吉米·巴。“亚当:一种随机优化的方法”。arXiv preprint arXiv:1412.6980(2014)。 http://arxiv.org/pdf/1412.6980

神经优化器 ★★★★★

Andrychowicz,Marcin,et al。“通过梯度下降学习学习梯度下降”。arXiv preprint arXiv:1606.04474(2016)。 https://arxiv.org/pdf/1606.04474

[25] ICLR最佳论文,让神经网络运行更快的新方向★★★★★

韩,宋,惠子毛,William J. Dally。“深压缩:用修剪,训练量化和哈夫曼编码压缩深层神经网络。CoRR,abs / 1510.00149 2(2015)。 https://pdfs.semanticscholar.org/5b6c/9dda1d88095fa4aac1507348e498a1f2e863.pdf

[26]优化神经网络的另一个新方向★★★★

Iandola,Forrest N.,et al。“SqueezeNet:AlexNet级精度,参数减少50倍,模型尺寸小于1MB。”arXiv preprint arXiv:1602.07360(2016)。 http://arxiv.org/pdf/1602.07360

2.3无监督学习/深度生成式模型

[27] Google脑找猫的里程碑论文,吴恩达★★★★

Le,Quoc V.“构建使用大规模无监督学习的高级特征”。2013 IEEE国际声学,语音和信号处理会议。IEEE,2013。 http://arxiv.org/pdf/1112.6209.pdf

[28]变分自编码机(VAE) ★★★★

Kingma,Diederik P.和Max Welling。“自动编码变体贝叶斯”。arXiv preprint arXiv:1312.6114(2013)。 http://arxiv.org/pdf/1312.6114

[29]生成式对抗网络(GAN) ★★★★

Goodfellow,Ian,et al。“生成对抗网”。神经信息处理系统进展。2014年 http://papers.nips.cc/paper/5423-generative-adversarial-nets.pdf

[30]解卷积生成式对抗网络(DCGAN)★★★★

Radford,Alec,Luke Metz和Soumith Chintala。“无监督的表示学习与深卷积生成对抗网络”。arXiv preprint arXiv:1511.06434(2015)。 http://arxiv.org/pdf/1511.06434

[31]注意机制的变分自编码机★★★★★

Gregor,Karol等“DRAW:用于图像生成的经常性神经网络”。arXiv preprint arXiv:1502.04623(2015)。 http://jmlr.org/proceedings/papers/v37/gregor15.pdf

[32] PixelRNN★★★★

Oord,Aaron van den,Nal Kalchbrenner和Koray Kavukcuoglu。“像素复现神经网络”。arXiv preprint arXiv:1601.06759(2016)。 http://arxiv.org/pdf/1601.06759

[33] PixelCNN★★★★

Oord,Aaron van den,et al。“使用PixelCNN解码器的条件图像生成”。arXiv preprint arXiv:1606.05328(2016)。 https://arxiv.org/pdf/1606.05328

2.4 RNN /序列到序列模型

[34] RNN的生成式序列,LSTM★★★★

格雷夫斯,亚历克斯“用循环神经网络生成序列”。arXiv preprint arXiv:1308.0850(2013)。 http://arxiv.org/pdf/1308.0850

[35]第一份序列到序列论文★★★★

Cho,Kyunghyun,et al。“使用RNN编码器解码器学习短语表示法进行统计机器翻译”。arXiv preprint arXiv:1406.1078(2014)。 http://arxiv.org/pdf/1406.1078

[36]神经网络的序列到序列学习★★★★★

Sutskever,Ilya,Oriol Vinyals和Quoc V. Le。“使用神经网络进行序列学习”。神经信息处理系统的进展。2014年 http://papers.nips.cc/paper/5346-information-based-learning-by-agents-in-unbounded-state-spaces.pdf

[37]神经机器翻译 ★★★

Bahdanau,Dzmitry,KyungHyun Cho和Yoshua Bengio。“通过联合学习来平移和翻译神经机器翻译”。arXiv preprint arXiv:1409.0473(2014)。 https://arxiv.org/pdf/1409.0473v7.pdf

[38]序列到序列Chatbot ★★

Vinyals,Oriol和Quoc Le。“神经会话模式”。arXiv preprint arXiv:1506.05869(2015)。 http://arxiv.org/pdf/1506.05869.pdf%20(http://arxiv.org/pdf/1506.05869.pdf

2.5神经网络图灵机

未来计算机的基本原型★★★★★

格雷夫斯,亚历克斯,格雷格·韦恩和伊沃·丹尼谢卡。“神经图灵机”。arXiv preprint arXiv:1410.5401(2014)。 http://arxiv.org/pdf/1410.5401.pdf

[40]强化学习神经图灵机★★★

Zaremba,Wojciech和Ilya Sutskever。“加固学习神经图灵机”。arXiv preprint arXiv:1505.00521 362(2015)。 https://pdfs.semanticscholar.org/f10e/071292d593fef939e6ef4a59baf0bb3a6c2b.pdf

记忆网络★★★

韦斯顿,杰森,苏米特·肖普拉和安托万·博尔德。“内存网络”。arXiv preprint arXiv:1410.3916(2014)。 http://arxiv.org/pdf/1410.3916

端对端记忆网络 ★★★

Sukhbaatar,Sainbayar,Jason Weston和Rob Fergus。“端到端内存网络”。神经信息处理系统的进展。2015年。 http://papers.nips.cc/paper/5846-end-to-end-memory-networks.pdf

指针网络 ★★★★

Vinyals,Oriol,Meire Fortunato和Navdeep Jaitly。“指针网络”。神经信息处理系统进展。2015年。 http://papers.nips.cc/paper/5866-pointer-networks.pdf

[44]整合神经网络图灵机概念的里程碑论文 ★★★★★

Graves,Alex,et al。“混合计算使用神经网络与动态外部存储器”。自然(2016)。 https://www.dropbox.com/s/0a40xi702grx3dq/2016-graves.pdf

2.6深度强化学习

[45]第一篇以深度强化学习为名的论文★★★★

Mnih,Volodymyr,et al。“用强化学习锻炼阿塔里”。arXiv preprint arXiv:1312.5602(2013)。 http://arxiv.org/pdf/1312.5602.pdf

[46]里程碑★★★★★

Mnih,Volodymyr,et al。“通过深层次的强化学习进行人为的控制”。Nature 518.7540(2015):529-533。 https://storage.googleapis.com/deepmind-data/assets/papers/DeepMindNature14236Paper.pdf

[47] ICLR最佳论文★★★★

王紫子,南非德弗雷塔斯和马克·兰科特。“深度加强学习的决斗网络架构”。arXiv preprint arXiv:1511.06581(2015)。 http://arxiv.org/pdf/1511.06581

[48]当前最先进的深度强化学习方法★★★★★

Mnih,Volodymyr,et al。“强化学习的异步方法”。arXiv preprint arXiv:1602.01783(2016)。 http://arxiv.org/pdf/1602.01783

[49] DDPG★★★★

Lillicrap,Timothy P.,et al。“强化学习持续控制”。arXiv preprint arXiv:1509.02971(2015)。 http://arxiv.org/pdf/1509.02971

[50] NAF★★★★

顾世祥等“持续深层次的Q-学习与基于模型的加速”。arXiv preprint arXiv:1603.00748(2016)。 http://arxiv.org/pdf/1603.00748

[51] TRPO★★★★

舒尔曼,约翰,等“信托地区政策优化”。CoRR,abs / 1502.05477(2015)。 http://www.jmlr.org/proceedings/papers/v37/schulman15.pdf

[52]阿尔法★★★★★

银,大卫等“用深度神经网络和树搜索掌握Go的游戏”。Nature 529.7587(2016):484-489。 http://willamette.edu/%7Elevenick/cs448/goNature.pdf

2.7深度迁移学习/终生学习/强化学习

[53]班加奥教程★★★

本吉奥,雅思。“深入学习无监督和转学习的代表”。ICML无监督和转移学习27(2012):17-36。 http://www.jmlr.org/proceedings/papers/v27/bengio12a/bengio12a.pdf

[54]终生学习的简单讨论★★★

银,丹尼尔·李,强杨,李良浩。“终身学习系统:超越学习算法”。AAAI春季研讨会:终身机器学习。2013。 http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.696.7800&rep=rep1&type=pdf

[55] Hinton,Jeff Dean大神研究★★★★

Hinton,Geoffrey,Oriol Vinyals和Jeff Dean。“在神经网络中挖掘知识”。arXiv preprint arXiv:1503.02531(2015)。 http://arxiv.org/pdf/1503.02531

[56]强化学习策略★★★

Rusu,Andrei A.,et al。“政策蒸馏”。arXiv preprint arXiv:1511.06295(2015)。 http://arxiv.org/pdf/1511.06295

[57]多任务深度迁移强化学习★★★

Parisotto,Emilio,Jimmy Lei Ba和Ruslan Salakhutdinov。“演员模仿:深度多任务和转移强化学习”。arXiv preprint arXiv:1511.06342(2015)。 http://arxiv.org/pdf/1511.06342

累进式神经网络★★★★★

Rusu,Andrei A.,et al。“进步神经网络”。arXiv preprint arXiv:1606.04671(2016)。 https://arxiv.org/pdf/1606.04671

2.8一次性深度学习

[59]不涉及深度学习,但值得一读★★★★★

Lake,Brenden M.,Ruslan Salakhutdinov和Joshua B. Tenenbaum。“通过概率计划诱导进行人文概念学习”。科学350.6266(2015):1332-1338。 http://clm.utexas.edu/compjclub/wp-content/uploads/2016/02/lake2015.pdf

[60]一次性图像识别★★★

科赫,格雷戈里,理查德·泽梅尔和鲁斯兰·萨拉库丁诺夫。“暹粒神经网络一次图像识别”(2015) http://www.cs.utoronto.ca/%7Egkoch/files/msc-thesis.pdf

[61]一次性学习基础 ★★★★

Santoro,Adam,et al。“一次性学习与记忆增强神经网络”。arXiv preprint arXiv:1605.06065(2016)。 http://arxiv.org/pdf/1605.06065

[62]一次性学习网络★★★

Vinyals,Oriol等人“匹配网络一次学习”。arXiv preprint arXiv:1606.04080(2016)。 https://arxiv.org/pdf/1606.04080

[63]大型数据★★★★

Hariharan,Bharath和Ross Girshick。“低射视觉对象识别”。arXiv preprint arXiv:1606.02819(2016)。 http://arxiv.org/pdf/1606.02819

应用

3.1自然语言处理(NLP)

[1]★★★★

Antoine Bordes,et al。“联合学习词语和开放语义分析的含义表示”。AISTATS(2012) https://www.hds.utc.fr/%7Ebordesan/dokuwiki/lib/exe/fetch.php?id=en%3Apubli&cache=cache&media=en:bordes12aistats.pdf

[2]★★★

word2vec Mikolov等人“分布式表达的单词和短语及其组成”。ANIPS(2013):3111-3119 http://papers.nips.cc/paper/5021-distributed-representations-of-words-and-phrases-and-their-compositionality.pdf

[3]★★★

Sutskever等人“使用神经网络进行序列学习”。ANIPS(2014) http://papers.nips.cc/paper/5346-sequence-to-sequence-learning-with-neural-networks.pdf

[4]★★★★

Ankit Kumar等人“Ask Me Anything:Dynamic Memory Networks for Natural Language Processing”。arXiv preprint arXiv:1506.07285(2015) https://arxiv.org/abs/1506.07285

[5]★★★★

Yoon Kim,et al。“字符意识神经语言模型”。NIPS(2015)arXiv preprint arXiv:1508.06615(2015) https://arxiv.org/abs/1508.06615

[6] bAbI任务★★★

Jason Weston等人“完成AI问题回答:一套先决条件玩具任务”。arXiv preprint arXiv:1502.05698(2015) https://arxiv.org/abs/1502.05698

[7] CNN / DailyMail风格对比★★

Karl Moritz Hermann,et al。“阅读和理解的教学机器”。arXiv preprint arXiv:1506.03340(2015) https://arxiv.org/abs/1506.03340

[8]当前最先进的文本分类★★★

Alexis Conneau等人“用于自然语言处理的非常深的卷积网络”。arXiv preprint arXiv:1606.01781(2016) https://arxiv.org/abs/1606.01781

[9]稍等于最先进方案,但速度快很多★★★

Armand Joulin等人“用于高效文本分类的技巧”。arXiv preprint arXiv:1607.01759(2016) https://arxiv.org/abs/1607.01759

3.2目标检测

[1]★★★

塞格德,基督教,亚历山大·托舍夫和杜米特·埃尔汗。“用于物体检测的深层神经网络”。神经信息处理系统进展。2013。 http://papers.nips.cc/paper/5207-deep-neural-networks-for-object-detection.pdf

[2] RCNN★★★★★

Girshick,Ross,et al。“丰富的功能层次结构,用于准确的对象检测和语义分割”。IEEE计算机视觉与模式识别会议论文集。2014年 http://www.cv-foundation.org/openaccess/content_cvpr_2014/papers/Girshick_Rich_Feature_Hierarchies_2014_CVPR_paper.pdf

[3] SPPNet★★★,流量,

他,凯明,等“空间金字塔汇集在深度卷积网络中进行视觉识别”。欧洲计算机视觉会议。Springer国际出版社,2014。 http://arxiv.org/pdf/1406.4729

[4]★★★,流量,

Girshick,Ross。“快速r-cnn”。IEEE国际计算机视觉会议论文集。2015年。 https://pdfs.semanticscholar.org/8f67/64a59f0d17081f2a2a9d06f4ed1cdea1a0ad.pdf

[5]★★★,流量,

任少少等“更快的R-CNN:通过区域提案网络实现实时对象检测”。神经信息处理系统的进展。2015年。 http://papers.nips.cc/paper/5638-analysis-of-variational-bayesian-latent-dirichlet-allocation-weaker-sparsity-than-map.pdf

[6]相当实用的YOLO项目★★★★★

Redmon,Joseph,et al。“你只看一次:统一的,实时的对象检测。”arXiv preprint arXiv:1506.02640(2015)。 http://homes.cs.washington.edu/%7Eali/papers/YOLO.pdf

[7]★★★

刘伟,等“SSD:单次多重检测器”。arXiv preprint arXiv:1512.02325(2015)。 http://arxiv.org/pdf/1512.02325

[8]★★★,流量,

戴,吉峰等“R-FCN:通过基于区域的完全卷积网络的对象检测”。arXiv preprint arXiv:1605.06409(2016)。 https://arxiv.org/abs/1605.06409

[9]★★★,流量,

他,Gkioxari等人“Mask R-CNN”arXiv preprint arXiv:1703.06870(2017)。 https://arxiv.org/abs/1703.06870

3.3视觉追踪

[1]第一部分采用深度学习的视觉追踪论文,DLT追踪器★★★

王乃仁,杨妍妍。“学习用于视觉跟踪的深刻紧凑的图像表示”。神经信息处理系统的进展。2013。 http://papers.nips.cc/paper/5192-learning-a-deep-compact-image-representation-for-visual-tracking.pdf

[2] SO-DLT★★★,流量,

王乃奈等“转移丰富的功能层次结构,实现强大的视觉跟踪。”arXiv preprint arXiv:1501.04587(2015)。 http://arxiv.org/pdf/1501.04587

[3] FCNT★★★,流量,

王立军等“具有完全卷积网络的视觉跟踪”。IEEE国际计算机视觉会议论文集。2015年。 http://www.cv-foundation.org/openaccess/content_iccv_2015/papers/Wang_Visual_Tracking_With_ICCV_2015_paper.pdf

[4]跟深度学习一样快的非深度学习方法,GOTURN★★★,流量,

大卫,塞巴斯蒂安·苏伦和西尔维奥·萨瓦雷塞。“以100 FPS跟踪深度回归网络”。arXiv preprint arXiv:1604.01802(2016)。 http://arxiv.org/pdf/1604.01802

[5]新的最先进的实时目标追踪方案SiameseFC★★★,流量,

Bertinetto,Luca,et al。“全卷积暹罗网络对象跟踪”。arXiv preprint arXiv:1606.09549(2016)。 https://arxiv.org/pdf/1606.09549

[6] C-COT★★★,流量,

Martin Danelljan,Andreas Robinson,Fahad Khan,Michael Felsberg。“超越相关滤波器:学习连续卷积运算符进行视觉跟踪”。ECCV(2016) http://www.cvl.isy.liu.se/research/objrec/visualtracking/conttrack/C-COT_ECCV16.pdf

[7] VOT2016大赛冠军TCNN★★★,流量,

Nam,Hyeonseob,Mooyeol Baek和Bohyung Han。“用于视觉跟踪的树结构中的建模和传播CNN”。arXiv preprint arXiv:1608.07242(2016)。 https://arxiv.org/pdf/1608.07242

3.4图像标注

[1]★★★

法哈迪,阿里等人。“每张照片讲述一个故事:从图像生成句子”。在计算机VisionECCV 201匹配0. Sp匹配响铃柏林海德堡:2010年15-29。 https://www.cs.cmu.edu/%7Eafarhadi/papers/sentence.pdf

[2]★★★,流量,

Kulkarni,Girish,et al。“宝贝说话:了解和生成图像描述”。2011年第24届CVPR会议录。 http://tamaraberg.com/papers/generation_cvpr11.pdf

[3]★★★

Vinyals,Oriol等人“显示和告诉:神经图像字幕发生器”。在ArXiv预印版中,版本:1411.4555,2014。 https://arxiv.org/pdf/1411.4555.pdf

[4] RNN视觉识别与标注

Donahue,Jeff,et al。“用于视觉识别和描述的长期复现卷积网络”。在ArXiv的预印版中,ArXiv:1411.4389,2014。 https://arxiv.org/pdf/1411.4389.pdf

[5]李飞飞及高徒Andrej Karpathy★★★★★

卡尔佩斯,安德烈和李飞飞。“用于生成图像描述的深度视觉语义对齐”。在ArXiv预印版中,2014年1412.2306。 https://cs.stanford.edu/people/karpathy/cvpr2015.pdf

[6]李飞飞及高徒Andrej Karpathy★★★,流量,

Karpathy,Andrej,Armand Joulin和Fei Fei F. Li。“用于双向图像语句映射的深度片段嵌入”。2014年神经信息处理系统进展。 https://arxiv.org/pdf/1406.5679v1.pdf

[7]★★★,流量,

方昊等“从字幕到视觉概念,回来”。在ArXiv的预印版中,ArXiv:1411.4952,2014。 https://arxiv.org/pdf/1411.4952v3.pdf

[8]★★★,流量,

陈新磊和C.劳伦斯·齐特尼克。“学习图像字幕生成的复现视觉表示”。在ArXiv预印版中,ArXiv:1411.5654,2014。 https://arxiv.org/pdf/1411.5654v1.pdf

[9]★★★

毛,俊华等“多角度复现神经网络(m-rnn)的深刻字幕”。在arXiv预印版中,版本:1412.6632,2014。 https://arxiv.org/pdf/1412.6632v5.pdf

[10]★★★★★

Xu,Kelvin,et al。“显示,参加并告诉:视觉注意的神经图像字幕生成”。在arXiv预印版中,2015年第1502.03044期。 https://arxiv.org/pdf/1502.03044v3.pdf

3.5机器翻译

本话题的部分里程碑论文列在2.4“RNN /序列到序列模型”话题下。

[1]★★★,流量,

Luong,Minh-Thang,et al。“解决神经机器翻译中罕见的单词问题”。arXiv preprint arXiv:1410.8206(2014)。 http://arxiv.org/pdf/1410.8206

[2]★★★

Sennrich等人“词语单词的神经机器翻译”。在ArXiv预印本版:1508.07909,2015。 https://arxiv.org/pdf/1508.07909.pdf

[3]★★★,流量,

罗恩,闵-ang,ie u am,,克里斯托弗·丹宁。“以注意为基础的神经机器翻译的有效方法”。arXiv preprint arXiv:1508.04025(2015)。 http://arxiv.org/pdf/1508.04025

[4]★★

Chung等“没有明确分割神经机器翻译的字符级解码器”。在ArXiv预印本arXiv:1603.06147,2016。 https://arxiv.org/pdf/1603.06147.pdf

[5]★★★★★

Lee,et al。“完全字符级神经机器翻译无明确分割”。在ArXiv预印版中,版本:1610.03017,2016。 https://arxiv.org/pdf/1610.03017.pdf

[6]里程碑★★★,流量,

Wu,Schuster,Chen,Le,et al。“Google的神经机器翻译系统:弥合人与机器翻译之间的差距”。在ArXiv预印版中,版本:1609.08144v2,2016。 https://arxiv.org/pdf/1609.08144v2.pdf

3.6机器人

[1]★★★

Koutník,Jan,et al。“演进大规模神经网络,以视觉为基础的强化学习”。第十五届遗传与进化计算年会论文集。ACM,2013。 http://repository.supsi.ch/4550/1/koutnik2013gecco.pdf

[2]★★★★★

Levine,Sergey,et al。“深度视觉运动政策的端到端培训”。机器学习研究杂志17.39(2016):1-40。 http://www.jmlr.org/papers/volume17/15-522/15-522.pdf

[3]★★★

平托,Lerrel和Abhinav Gupta。“取代自我监督:学习掌握从5万次的尝试和700个机器人的时间。”arXiv preprint arXiv:1509.06825(2015)。 http://arxiv.org/pdf/1509.06825

[4]★★★,流量,

Levine,Sergey,et al。“深度学习和大规模数据采集的机器人掌握学习手眼协调”。arXiv preprint arXiv:1603.02199(2016)。 http://arxiv.org/pdf/1603.02199

[5]★★★,流量,

朱玉科等“使用深度加固学习的室内场景中的目标驱动视觉导航”。arXiv preprint arXiv:1609.05143(2016)。 https://arxiv.org/pdf/1609.05143

[6]★★★,流量,

Yahya,Ali,et al。“集体机器人加强学习与分布式异步引导政策搜索”。arXiv preprint arXiv:1610.00673(2016)。 https://arxiv.org/pdf/1610.00673

[7]★★★,流量,

顾世祥等“机器人操纵的深加强学习”。arXiv preprint arXiv:1610.00633(2016)。 https://arxiv.org/pdf/1610.00633

[8]★★★,流量,

Rusu,M Vecerik,ThomasRothörl,N Heess,R Pascanu,R Hadsell。“Sim-to-Real Robot Learning from Pixels with Progressive Nets”。arXiv preprint arXiv:1610.04286(2016)。 https://arxiv.org/pdf/1610.04286.pdf

[9]★★★,流量,

Mirowski,Piotr,et al。“学习在复杂的环境中导航”。arXiv preprint arXiv:1611.03673(2016)。 https://arxiv.org/pdf/1611.03673

3.7艺术

[1] Google Deep Dream★★★,流量,

Mordvintsev,亚历山大奥拉,克里斯托弗Tyka,Mike(2015)。“实现主义:深入神经网络”。Google研究。 https://research.googleblog.com/2015/06/inceptionism-going-deeper-into-neural.html

[2]当前最成功的艺术风格迁移方案,Prisma★★★★★

Gatys,Leon A.,Alexander S. Ecker和Matthias Bethge。“艺术风格的神经算法”。arXiv preprint arXiv:1508.06576(2015)。 http://arxiv.org/pdf/1508.06576

[3] IgA肾病★★★,流量,

朱俊仁等“自然图像歧管的生成视觉操作”。欧洲计算机视觉会议。斯普林格国际出版社,2016年。 https://arxiv.org/pdf/1609.03552

[4]神经涂鸦★★★,流量,

Champandard,Alex J.“语义风格转移和将两位涂鸦转化为美术作品”。arXiv preprint arXiv:1603.01768(2016)。 http://arxiv.org/pdf/1603.01768

[5]★★★,流量,

张,理查德,菲利普·伊索拉和阿列克谢·埃夫罗斯。“彩色图像着色”。arXiv preprint arXiv:1603.08511(2016)。 http://arxiv.org/pdf/1603.08511

[6]超分辨率,李飞飞★★★,流量,

约翰逊,贾斯汀,亚历山大·阿拉希和李飞飞。“实时风格转移和超分辨率的感知损失”。arXiv preprint arXiv:1603.08155(2016)。 https://arxiv.org/pdf/1603.08155.pdf

[7]★★★,流量,

Vincent Dumoulin,Jonathon Shlens和Manjunath Kudlur。“艺术风格的学术代表”。arXiv preprint arXiv:1610.07629(2016)。 https://arxiv.org/pdf/1610.07629v1.pdf

[8]基空间位置,色彩信息与空间尺度的风格迁移★★★,流量,

Gatys,Leon和Ecker等人,“Controling Perceptual Factors in Neural Style Transfer”。arXiv preprint arXiv:1611.07865(2016)。 https://arxiv.org/pdf/1611.07865.pdf

[9]纹理生成与风格迁移★★★,流量,

Ulyanov,Dmitry和Lebedev,Vadim,et al。“纹理网络:纹理和风格化图像的前馈合成”。arXiv preprint arXiv:1603.03417(2016)。 http://arxiv.org/abs/1603.03417

3.8目标分割

[1]★★★★★

J.Rong,E.Shehamer,和T.Darrell,“全面卷积网络语义分割”,CVPR,2015。 https://arxiv.org/pdf/1411.4038v2.pdf

[2]★★★★★

L.-C.Chen,G.Pandandreou,I.Kokkinos,K.Mullphy和ALYuille。“具有深卷积网和完全连接的crfs的语义图像分割”。在ICLR,2015年。 https://arxiv.org/pdf/1606.00915v1.pdf

[3]★★★,流量,

Pinheiro,PO,Collobert,R.,Dollar,P.“学习分割对象候选人”。在:NIPS。2015年。 https://arxiv.org/pdf/1506.06204v2.pdf

[4]★★★

Dai,J.,He,K.,Sun,J.“Instance-aware semantic segmentation via multi-task network cascades”。在CVPR中。2016 https://arxiv.org/pdf/1512.04412v1.pdf

[5]★★★

Dai,J.,He,K.,Sun,J.“Instance-sensitive Fully Convolutional Networks”。arXiv preprint arXiv:1603.08678(2016)。 https://arxiv.org/pdf/1603.08678v1.pdf

下载链接:https://pan.baidu.com/s/1pLFgO11

查看更多主题的豆瓣日记和相册

月城雪兔
作者月城雪兔
213日记 9相册

全部回应 0 条

添加回应

月城雪兔的热门日记

值得一读

    豆瓣
    我们的精神角落
    免费下载 iOS / Android 版客户端
    App 内打开