CNN
http://blog.csdn.net/darkprin...
http://blog.csdn.net/darkprin...
http://blog.csdn.net/darkprin...
http://blog.csdn.net/u0130880...
深度学习官方
深度学习链接☆ http://lib.csdn.net/base/deep...
算法链接:http://lib.csdn.net/base/data...
一些博客的笔记
http://mt.sohu.com/it/d201705...
http://www.cnblogs.com/TextEd...
http://blog.csdn.net/malefact...
RNN
本文主要的 reference 是 Google Brain 的 Chris Olah 和 Shan Carter 所写的关于注意力机制和RNNs 的 Blog, 原文里有非常漂亮的动态图,想看英文的读者推荐直接阅读原文。另外Olah的blog超级赞,可以说是必看。
Citation: Chris Olah & Shan Carter, “Attention and Augmented Recurrent Neural Networks”, Distill, 2016.
http://www.cnblogs.com/wangxi...
赞多多
http://blog.csdn.net/heyonglu...
http://blog.csdn.net/zouxy09/...
待看
RNN入门
http://blog.csdn.net/hjimce/a...
循环神经网络(Recurrent)——介绍
https://zhuanlan.zhihu.com/p/...
http://mt.sohu.com/20160910/n...
http://blog.csdn.net/zouxy09/...
深度学习笔记整理
http://www.sigvc.org/bbs/thre...
Deep Learning(深度学习)整理,RNN,CNN,BP
http://blog.csdn.net/justdoit...
一文读懂 CNN、DNN、RNN 内部网络结构区别
http://www.techweb.com.cn/net...
TensorFlow人工智能引擎入门教程之九 RNN/LSTM循环神经网络长短期记忆网络使用
https://my.oschina.net/yilian...
Deep Learning源代码收集-持续更新…
http://blog.csdn.net/zouxy09/...
一文看懂系列之深入理解 RNN——神经图灵机(附代码)
http://it.sohu.com/20161211/n...
从RNN到LSTM
http://blog.csdn.net/malefact...
深度学习之神经网络结构——RNN_理解LSTM
http://blog.csdn.net/victoria...
Deep learning:四十九(RNN-RBM简单理解)
http://www.cnblogs.com/tornad...
关于人工神经网络,你所应知道的一切都在这里了
http://synchuman.baijia.baidu...
人人都能用Python写出LSTM-RNN的代码![你的神经网络学习最佳起步]
http://blog.csdn.net/zzukun/a...
https://www.zhihu.com/questio...
Tensflowcnn
http://nooverfit.com/wp/pycon...
机器学习
机器学习的常用方法,主要分为有监督学习(supervised learning)和无监督学习(unsupervised learning)。监督学习,就是人们常说的分类,通过已有的训练样本(即已知数据以及其对应的输出)去训练得到一个最优模型(这个模型属于某个函数的集合,最优则表示在某个评价准则下是最佳的),再利用这个模型将所有的输入映射为相应的输出,对输出进行简单的判断从而实现分类的目的,也就具有了对未知数据进行分类的能力。在人对事物的认识中,我们从孩子开始就被大人们教授这是鸟啊、那是猪啊、那是房子啊,等等。我们所见到的景物就是输入数据,而大人们对这些景物的判断结果(是房子还是鸟啊)就是相应的输出。当我们见识多了以后,脑子里就慢慢地得到了一些泛化的模型,这就是训练得到的那个(或者那些)函数,从而不需要大人在旁边指点的时候,我们也能分辨的出来哪些是房子,哪些是鸟。监督学习里典型的例子就是KNN、SVM。无监督学习(也有人叫非监督学习,反正都差不多)则是另一种研究的比较多的学习方法,它与监督学习的不同之处,在于我们事先没有任何训练样本,而需要直接对数据进行建模。这听起来似乎有点不可思议,但是在我们自身认识世界的过程中很多处都用到了无监督学习。比如我们去参观一个画展,我们完全对艺术一无所知,但是欣赏完多幅作品之后,我们也能把它们分成不同的派别(比如哪些更朦胧一点,哪些更写实一些,即使我们不知道什么叫做朦胧派,什么叫做写实派,但是至少我们能把他们分为两个类)。无监督学习里典型的例子就是聚类了。聚类的目的在于把相似的东西聚在一起,而我们并不关心这一类是什么。因此,一个聚类算法通常只需要知道如何计算相似度就可以开始工作了。k-means
http://blog.csdn.net/jwh_bupt...
github增强学习augmented
https://github.com/distillpub...
DeepMind背后的人工智能:深度学习原理初探
http://www.infoq.com/cn/news/...
https://deepmind.com/
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。