Datawhale干货
整理:机器之心、Datawhale
一份AI领域研究的经典论文清单
随着生成式 AI 模型掀起新一轮 AI 浪潮,越来越多的行业迎来技术变革。许多行业从业者、基础科学研究者需要快速了解 AI 领域发展现状、掌握必要的基础知识。
而在转行 AI 的过程中,研究「论文」一定是最不可缺少的一环。
传奇程序员、3D 游戏之父,id Software 联合创始人 John Carmack 在 2020 年想转行 AGI 时,前 OpenAI 联合创始人兼首席科学家 Ilya Sutskever 给他写了一份 AI 领域研究的论文清单。
这份清单被 50 多万人浏览过,网友称:Ilya 认为掌握了这些内容,你就了解了当前(人工智能领域) 90% 的重要内容。甚至有人表示它是 OpenAI 入职培训内容的一部分。
与此同时,一个名为 Taro Langner 的贡献者对清单做了补充,还指出了一些必须注意的额外内容,包括 Yann LeCun等重要 AI 学者的工作,以及关于 U-Net、YOLO 目标检测、GAN、WaveNet、Word2Vec 等技术的论文。
Datawahle 将完整的论文清单整理如下:
完整论文清单
卷积神经网络:
《ImageNet Classification with Deep Neural Networks》
论文地址:https://proceedings.neurips.c...\_files/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-Paper.pdf
《CS231n Convolutional Neural Networks for Visual Recognition》
《Deep Residual Learning for Image Recognition》
《Identity Mappings in Deep Residual Networks》
《Multi-Scale Context Aggregation by Dilated Convolutions》
循环神经网络:
《The Unreasonable Effectiveness of Recurrent Neural Networks》
《Understanding LSTM Networks》
《Recurrent Neural Network Regularization》
《Pointer Networks》
《Relational Recurrent Neural Networks》
《Neural Turing Machines》
《Deep Speech 2: End-to-End Speech Recognition in English and Mandarin》
《Order Matters: Sequence to Sequence for Sets》
《Neural Machine Translation by Jointly Learning to Align and Translate》
《A Simple Neural Network Module for Relational Reasoning》
Transformers:
《Attention Is All You Need》
《The Annotated Transformer》
《Scaling Laws for Neural Language Models》
信息论:
《The First Law of Complexodynamics》
《Keeping Neural Networks Simple by Minimizing the Description Length of the Weights》
《A Tutorial Introduction to the Minimum Description Length Principle》
《Kolmogorov Complexity and Algorithmic Randomness》
《Quantifying the Rise and Fall of Complexity in Closed Systems: The Coffee Automaton》
其他项:
《GPipe: Efficient Training of Giant Neural Networks using Pipeline Parallelism》
《Variational Lossy Autoencoder》
《Neural Quantum Chemistry》
《Machine Super Intelligence》
论文地址:https://www.vetta.org/documen...\_Super\_Intelligence.pdf
元学习:
《Meta-Learning with Memory-Augmented Neural Networks》
《Prototypical Networks for Few-shot Learning》
《Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks》
强化学习:
《Human-level concept learning through probabilistic program induction》
《Neural Architecture Search with Reinforcement Learning》
《A Simple Neural Attentive Meta-Learner》
自我博弈:
《Hindsight Experience Replay》
《Continuous control with deep reinforcement learning》
《Sim-to-Real Transfer of Robotic Control with Dynamics Randomization》
《Meta Learning Shared Hierarchies》
《Temporal Difference Learning and TD-Gammon ,1995》
《Karl Sims - Evolved Virtual Creatures, Evolution Simulation, 1994》
《Emergent Complexity via Multi-Agent Competition》
《Deep reinforcement learning from human preferences》
额外补充:
- Yann LeCun 等人的工作,他在 CNN 的实际应用方面做出了开创性的工作 ——《Gradient-based learning applied to document recognition》
论文地址:https://www.cs.princeton.edu/...
Ian Goodfellow 等人的工作,他在生成对抗网络(GAN)方面的工作长期主导了图像生成领域 ——《Generative Adversarial Networks》
Demis Hassabis 等人的工作,他在 AlphaFold 方面的强化学习研究获得了诺贝尔奖 ——《Human-level control through deep reinforcement learning》、《AlphaFold at CASP13》
参考内容:
https://tensorlabbet.com/2024...
https://www.reddit.com/r/Mach...\_the\_lost\_reading\_items\_of\_ilya\_sutskevers\_ai/
一起“点赞”三连↓
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。