⁶⁶   ⁶⁶⁶⁶⁶⁶   ⁶⁶66⁶⁶⁶⁶    ₆₆₆₆ 可以啊.这波  ₆₆₆₆⁶⁶⁶⁶⁶        ⁶⁶⁶⁶⁶⁶⁶⁶⁶⁶⁶⁶⁶⁶66⁶⁶⁶⁶     卧槽⁶⁶⁶⁶⁶⁶⁶⁶⁶⁶⁶⁶⁶    666₆₆₆₆₆₆₆ 666        666 ⁶⁶⁶⁶⁶⁶₆₆₆₆₆₆ ₆⁶⁶⁶⁶⁶⁶⁶⁶⁶ ⁶⁶⁶⁶⁶⁶ ⁶⁶⁶⁶⁶⁶⁶⁶

忍野忍

107
获赞数
165
粉丝数
广州
暨南大学 | 软件工程
Dungeon | Lord
2018-04-13 加入
浏览 6.2k

自分の世界を変えるのは自分。 —— モルガナ

jo厨,东方厨,物语厨,月厨,单线程dd
个人博客:https://oshinonya.com

搞论文,学flutter,咕咕咕

个人动态
  • 赞了文章2 月 16 日
    flutter_xupdate 一键实现Flutter应用版本更新
    最近在研究Flutter,于是就随手写了一个Flutter小项目练练手,在写的时候我就发现,目前并没有非常好用的版本更新Flutter插件,尝试了使用Bugly的版本更新Flutter插件,但是效果非常不好.然后百度了一下,基本上都是如下方案:
  • 发布了文章2020-04-02
    Nuxt 项目部署在 Nginx 后,请求传递和资源映射问题的解决思路
    最近终于把博客用 Nuxt 重构完了,作为一个跟 nuxt 共处了一个月的猛男,我可以说这框架可以的:SSR解决方案非常巧妙,难度也不大,熟记其生命周期后靠官方文档很快就能上手。如果你有 SEO 的需要完全可以尝试一波
  • 发布了文章2020-02-23
    「Vue」 手撸一个图片懒加载/预加载指令
    最近在优化个人博客前端,翻看到了自己图片懒加载/预加载的远古代码(通过watch监听实现的),虽说实际效果勉强还行,但总觉得不够 “Vue”,功能上也有所不足。考虑到现有的 vue-lazyload 插件将懒加载指令化了,于是我想能不能自己也写一个。搜索一波后发现是可行的...
  • 发布了文章2018-10-26
    【DL-CV】浅谈GoogLeNet(咕咕net)
    GoogLeNet初始的想法很简单,“大力出奇迹”,即通过增加网络的网络的尺寸(深度与宽度)来变强。这脑回路看上去没啥毛病,但是一用在原味版的cnn上问题就来了,尺寸的增加和全连接层的存在带来了巨量的参数,计算成本暴增的同时增加了过拟合的风险。为了解决这一麻烦...
  • 发布了文章2018-09-13
    【DL-CV】更高级的参数更新/优化(二)
    全名 Adaptive gradient algorithm ,翻译过来就是“适应梯度算法”,该算法能根据梯度中偏导数的大小给不同的偏导数以不同的学习率,偏导数大(小)的给个小(大)的学习率,以此来减少参数更新时的摆动。
  • 发布了文章2018-09-13
    【DL-CV】更高级的参数更新/优化(一)
    原味版的SGD(以下称SGD)是通过死跟负梯度方向来对参数进行更新的,也就是走一步、停下确定方向、再走一步,如此循环。非常简单,非常老实的走法不是麽?但是SGD这个相对简单的算法在实际使用中还是会产生不少的问题,下面我们来看看最主要的几个
  • 发布了文章2018-09-07
    【DL-CV】正则化,Dropout
    所谓过拟合,就是网络对训练集极度适应,以至于训练出来的权重几乎只服务于训练集,导致在训练好的网络在跑训练集的时候表现得很好(准确率高),而跑测试集或其他数据表现得很差。过拟合的出现将降低网络的泛化能力,是非常糟糕的事情。
  • 发布了文章2018-09-05
    【DL-CV】批量归一化(BN算法)
    先来交代一下背景:在网络训练的过程中,参数的更新会导致网络的各层输入数据的分布不断变化,那么各层在训练的过程中就需要不断的改变以适应这种新的数据分布,从而造成网络训练困难,收敛变慢(而且网络越深越难),在论文中这个问题被称为“Internal Covariate Shi...
  • 发布了文章2018-09-05
    【DL-CV】数据预处理&权重初始化
    在网络训练时,我们通常会对原始数据进行预处理再喂给网络进行训练,而不是直接把原始数据喂给网络。这样能减少训练时问题的发生,提高网络模型的性能。现在我们有原始数据 X,其尺寸是 NxD(N是数据样本数量,D是数据的维度)
  • 发布了文章2018-08-30
    【暂时Over】Python 从零开始爬虫(十)给爬虫加速:多线程,多进程
    普通的python爬虫是单进程单线程的,这样在遇到大量重复的操作时就只能逐个进行,我们就很难过了。举个栗子:你有1000个美图的链接,逐个喂给下载器(函数),看着图片只能一个个蹦出来,你不心急吗?于是我们想,能不能同时跑多个下载器,实现多图同时下载?——答案...
  • 发布了文章2018-08-27
    【DL-CV】卷积神经网络
    经典神经网络搞明白后,我们接下来看看他的变种,也是本系列的主角——卷积神经网络(Convolutional Neural Network/CNN)。以往全连接层组成的神经网络有一个很气人的缺点就是对付大图像效果不好:图像尺寸一大,因为权重(形状上的)大小与图像尺寸有关系,参数量激...
  • 发布了文章2018-08-17
    【DL-CV】神经网络的补充
    在介绍了线性分类器,激活函数,损失函数,反向传播这些基础的原理后,已经可以尝试自行搭建像样的神经网络了。但是由于神经网络的许多细节并未过分深入(比如层数和每层神经元数的设定,过拟合等),初建的网络实际上和真实的网络还是有一定差距的。本篇将对这些细...
  • 发布了文章2018-08-17
    【DL-CV】激活函数及其选择
    在介绍线性分类器的时候,提到了激活函数,还提到线性分类器的输出要经过激活函数才能作为下一层网络的输入。为什么呢?本文将对这一问题进行解疑并介绍多种多种激活函数。
  • 发布了文章2018-08-17
    【DL-CV】反向传播,(随机)梯度下降
    有了损失函数L,我们能定量的评价模型的好坏。我们希望损失能最小化,或具体点,我们希望能找到使损失最小化的权重W。当然这个过程不是一步完成的,我们会使用梯度下降算法来一步步修改权重W,好让损失逐渐逼近最小值,这是一个收敛的过程。下面介绍梯度下降算法以并...
  • 发布了文章2018-08-11
    【DL-CV】损失函数,SVM损失与交叉熵损失
    现在有一个模型,能对输入的图像各种可能的类别进行评分。我们会引入损失函数Loss Function(或叫代价函数 Cost Function)定量的衡量该模型(也就是权重W)的好坏,其原理是——输出结果与真实结果之间差异越大,损失函数输出越大,模型越糟糕(需要训练让损失变小)。
  • 发布了文章2018-08-11
    【DL-CV】线性分类器
    这是多层感知器(multilayer perceptron/MLP),不加特效的最原始的神经网络,经典中的经典。(如无特别注释,神经网络通常指经典的mlp神经网络)。在接触其他热门变种如卷积神经网络前,我们会好好和MLP这位小朋友玩,了解他的特性,调教教导他,这样遇到其他小朋友...
  • 发布了文章2018-08-11
    【DL-CV】计算机视觉前置了解
    在初次进入坑,接触高深的算法环节之前,有必要对计算机视觉的目标和实现有一个大概的了解。虽说都是些量少易懂的知识点,却主角般地贯穿着整个学习过程,而且作为从小白到学习者思维转换的桥梁,其必要性是肯定的。所以对于从未接触过深度学习的小白,强烈推荐了解...
  • 发布了文章2018-08-11
    【DL-CV】【深度学习-计算机视觉】系列简介及入门推荐
    <----后篇>【DL-CV】计算机视觉前置了解 闲了就要找事做,不能被四公主和NS诱惑。所以在搞完了爬虫进入假期时,我继续我断了2个月深度学习,并瞄准了其中的一个分支——计算机视觉 系列简介 为了照顾不了解深度学习的小白,我还是超级简单地介绍一下深度学习吧 ...
  • 发布了文章2018-07-31
    Python 从零开始爬虫(九)——模拟登录,cookie的使用
    某些网站,登录和没登录,用户的权限是不一样的,帐号登录之后才能获取更多的信息。更有甚者一上来就是登录界面,不登录就不给你进去(如p站)。爬取目标不用登录固然是好,但需要时也没办法啊,这时如果还想爬取信息,就必须让爬虫学会登录。
  • 发布了文章2018-07-24
    Python 从零开始爬虫(八)——动态爬取解决方案 之 selenium
    selenium——自动化测试工具,专门为Web应用程序编写的一个验收测试工具,测试其兼容性,功能什么的。然而让虫师们垂涎的并不是以上的种种,而是其通过驱动浏览器获得的解析JavaScript的能力。所以说这货在动态爬取方面简直是挂逼级别的存在,相较于手动分析更简单易用...