SF
让智慧更进一步
让智慧更进一步
注册登录
关注博客
注册登录
主页
关于
RSS
语义分割浅析
醇岩
2019-04-16
阅读 3 分钟
11.4k
背景 对图像而言,常见的任务是: 图像分类:提取类别特征,如:VGG19网络 目标检测:提取类别,位置特征,如:YOLO网络 语义分割(实例分割):提取类别,位置特征,针对每个像素,如:Deeplab网络 我们知道,在做图像分类的时候,一般会在模型的最后添加全连接层+softmax用于预测。但是,全连接层会把卷积学习到的类别...
Tensorflow Lite介绍
醇岩
2019-04-02
阅读 6 分钟
20.5k
Tensorflow Lite是针对移动设备和嵌入式设备的轻量化解决方案,占用空间小,低延迟。Tensorflow Lite在android8.1以上的设备上可以通过ANNA启用硬件加速。
使用Tensorflow创建Transformer模型
醇岩
2019-03-21
阅读 21 分钟
11.6k
Transformer 本篇文章是源码实现,模型原理介绍请查看取代RNN结构的Transformer这篇文章,让我们开始吧! {代码...} Attention {代码...} Embedding {代码...} FFN_layer {代码...} 模型参数 {代码...}
4种方法计算句子相似度
醇岩
2019-03-12
阅读 5 分钟
10.5k
计算两个字符串之间,由一个转成另一个所需要的最少编辑次数,次数越多,距离越大,也就越不相关。比如,“xiaoming”和“xiamin”,两者的转换需要两步:
从Word2Vec到Bert
醇岩
2019-03-07
阅读 10 分钟
12.5k
Word2Vec有两种训练方法:CBOW和Skip-gram。CBOW的核心思想是上下文预测某个单词,Skip-gram正好相反,输入单词,要求网络预测它的上下文。
使用权重正则化较少模型过拟合
醇岩
2019-03-04
阅读 8 分钟
12.9k
权重正则化可以减轻深度神经网络模型的过拟合问题,可以提升对新数据的泛化能力。有多种正则方法可供选择,如:L1,L2正则化,每种方法在使用前需要超参数配置。在这篇文章中,你将学习在keras如何使用权重正则化的方法来减轻模型过拟合问题。读完本篇文章,你将学习到:
模型微调
醇岩
2019-02-27
阅读 1 分钟
4.4k
现在我们常用的预训练模型,比如:VGG16/19,Resnet等模型,并且已经用大型数据集来做训练,如:Imagenet,得到训练好的模型参数
google-colab平台训练模型案例
醇岩
2019-02-25
阅读 5 分钟
6.3k
数据集介绍 数据集来自Kaggle,质量很高,由知名医院的专业人员严格审核标注,如图所示数据有4种类别: CNV:具有新生血管膜和相关视网膜下液的脉络膜新血管形成 DME:糖尿病性黄斑水肿与视网膜增厚相关的视网膜内液 DRUSEN:早期AMD中存在多个玻璃疣 NORMAL:视网膜正常,没有任何视网膜液或水肿 文件大小约为5GB,8万多...
Transformer-XL: Unleashing the Potential of Attention Models
醇岩
2019-02-13
阅读 2 分钟
2.7k
现实远程依赖问题,比如要正确理解文章内容,有时需要阅读多处段落,这对人来说轻松自如。但是,对神经网络来说,远程依赖问题依然是一个挑战。虽然基于门控的RNN(LSTM,GRU等)和梯度裁剪等技术提高了对远程依赖建模的能力,但仍不足以解决问题。其中一个解决方法就是使用Transformers,Transformers允许数据单元直接连...
使用DeepLab进行语义分割
醇岩
2019-01-21
阅读 5 分钟
14.5k
DeepLab是谷歌使用tensorflow基于CNN开发的语义分割模型,至今已更新4个版本。最新版本是DeepLabv3+,在此模型中进一步将深度可分离卷积应用到孔空间金字塔池化和解码器模块,从而形成更快,更强大的语义分割编码器-解码器网络。本文从官方案例出发,介绍如何训练以及使用DeepLabv3+模型。
即将取代RNN结构的Transformer(及代码实现)
醇岩
2019-01-05
阅读 6 分钟
10k
上图是经典的双向RNN模型,我们知道该模型是通过递归的方式运行,虽然适合对序列数据建模,但是缺点也很明显“它无法并行执行”也就无法利用GPU强大的并行能力,再加上各种门控机制,运行速度很慢。一般而言,编码器输出编码向量C作为解码器输入,但是由于编码向量C中所有的编码器输入值贡献相同,导致序列数据越长信息丢...
YOLO目标检测模型原理介绍
醇岩
2018-12-25
阅读 4 分钟
15k
YOLO是一个端到端的目标检测算法,不需要预先提取region proposal(RCNN目标检测系列),通过一个网络就可以输出:类别,置信度,坐标位置,检测速度很快,不过,定位精度相对低些,特别是密集型小目标。
YOLO目标检测模型重新训练
醇岩
2018-12-23
阅读 5 分钟
12.7k
介绍 YOLO目标检测快速上手这篇文章我们通过简短的代码就实现了一个视频目标检测功能。本文将介绍如何使用其他数据集重新训练YOLO模型,文章将会详细介绍每一步。 下载数据集 我们将使用Pascal VOC数据集训练我们的模型,该数据集可以用来做图像分类、目标检测、图像分割。下载并解压文件后,我们介绍下相关文件的作用。...
YOLO目标检测快速上手
醇岩
2018-12-19
阅读 8 分钟
10.7k
YOLO是基于深度学习端到端的实时目标检测系统,YOLO将目标区域预测和目标类别预测整合于单个神经网络模型中,实现在准确率较高的情况下快速目标检测与识别,更加适合现场应用环境。本案例,我们快速实现一个视频目标检测功能,实现的具体原理我们将在单独的文章中详细介绍。
深度学习常见激活函数介绍及代码实现
醇岩
2018-12-17
阅读 4 分钟
12.2k
作用 深度神经网络引入非线性单元,使训练问题不再是一个凸优化问题,虽然我们很难得到最优解,但是可以通过梯度下降去寻找局部最小值。 增强模型的拟合能力,理论上只要有足够的神经元,一层隐藏层就可以表达任意函数。 性质 可微(多元函数):函数可微保证使用梯度下降优化的可计算性。 单调性:保证梯度方向相对稳定...
图像风格转移
醇岩
2018-12-16
阅读 10 分钟
8.6k
什么是图像风格迁移,我想图片比文字更具表现力。上图中“output image”就是图像风格迁移后得到的结果。那么它是如何实现的呢?首先让我们看下CNN每层学习到了什么。
深度学习实现自动生成图片字幕
醇岩
2018-12-11
阅读 13 分钟
8.6k
本次项目使用深度学习自动生成图像字幕。如上图,模型自动生成“The person is riding a surfboard in the ocean”字幕。我们具体该如何实现呢?
注意力机制实现机器翻译
醇岩
2018-12-08
阅读 13 分钟
7.4k
介绍 Attention模型形象的比喻就是“图像对焦”。 上图是Encoder-Decoder模型,Decoder中每个单词生成过程如下: 其中C是“语义编码C”,f是Decoder的非线性变换函数。由此,我们可以看出生成目标句子的每个单词都使用同一个语义编码C,即:源句子中的每个单词的影响力都是一样的,这如同图像没有对焦的情况,现实项目中也存...
DCGAN(深度卷积对抗网络)案例
醇岩
2018-12-06
阅读 8 分钟
13.8k
如图所示,GAN网络会同时训练两个模型。生成器:负责生成数据(比如:照片);判别器:判别所生成照片的真假。训练过程中,生成器生成的照片会越来越接近真实照片,直到判别器无法区分照片真假。
GRU网络生成莎士比亚小说
醇岩
2018-12-05
阅读 7 分钟
4.7k
本文我们将使用GRU网络来学习莎士比亚小说,模型通过学习可以生成与小说风格相似的文本,如图所示:虽然有些句子并没有实际的意思(目前我们的模型是基于概率,并不是理解语义),但是大多数单词都是有效的,文本结构也与我们训练的文本相似。由于项目中使用到了Eager Execution和GRU,所以我们先进行简单介绍:
通过迁移学习实现OCT图像识别
醇岩
2018-12-04
阅读 9 分钟
6.6k
迁移学习就是用别人已经训练好的模型,如:Inception Model,Resnet Model等,把它当做Pre-trained Model,帮助我们提取特征。常用方法是去除Pre-trained Model的最后一层,按照自己的需求重新更改,然后用训练集训练。因为Pre-trained Model可能已经使用过大量数据集,经过了长时间的训练,所以我们通过迁移学习可以使...
使用Keras构建CNN网络识别森林卫星图
醇岩
2018-12-03
阅读 9 分钟
5.3k
本文我们将使用tf.keras构建一个卷积神经网络,用于识别森林卫星图。tf.keras是Tensorflow的高阶API,具有模块性,易扩展性,相比Tensorflow的Low-level API可以更快速的实现模型。Pytorch也是相当不错的框架,感兴趣的读者可以查看官方文档。伴随Tensorflow对Keras的支持,目前Keras功能已十分强大,比如对TPU,多GPU的...