找到约 10000 条结果
  • 【哈工大版】Dynamic ReLU:自适应参数化ReLU(调参记录22)Cifar10~95.25%
    自适应参数化ReLU是一种动态激活函数,对所有输入不是“一视同仁”,在2019年5月3日投稿至IEEE Transactions on Industrial Electronics,2020年1月24日录用,2020年2月13日在IEEE官网公布。
    2020-05-25
  • 【哈工大版】Dynamic ReLU:自适应参数化ReLU(调参记录24)Cifar10~95.80%
    自适应参数化ReLU是一种动态激活函数,对所有输入不是“一视同仁”,在2019年5月3日投稿至IEEE Transactions on Industrial Electronics,2020年1月24日录用,2020年2月13日在IEEE官网公布。
    2020-05-25
  • 深度残差网络+自适应参数化ReLU激活函数(调参记录17)
    在调参记录16的基础上,增加了两个残差模块,继续测试其在Cifar10数据集上的效果。 自适应参数化ReLU激活函数的基本原理如下: Keras程序: {代码...} 实验结果如下(为了方便观看,删除了部分等号): {代码...} 到目前为止,还没有过拟合的迹象。 似乎将自适应参数化ReLU激活函数中第一个全连接层的神经元个数设置为1/...
    2020-05-12
  • 聊聊kingbus的startMasterServer
    序 本文主要研究一下kingbus的startMasterServer startMasterServer kingbus/server/server.go {代码...} startMasterServer方法先执行NewBinlogServer创建master,然后执行master的Start方法 NewBinlogServer kingbus/server/binlog_server.go {代码...} NewBinlogServer方法通过new方法创建BinlogServer,之后设置其li...
    2020-06-19
  • Java中equals和==的区别
    今天写项目时判断String相等用的“==”,结果半天就是不出结果……最后才发现自己犯了这么弱智的问题……正好趁这个机会把java中的equals方法和“==”间的区别梳理一下,以后保证不再犯!
    2015-02-08
    1
  • less青蛙与船的动图
    原网址:[链接]我拿来改了一点点。使用了CSS的动画: {代码...}
    2021-04-03
  • 深度残差网络+自适应参数化ReLU激活函数(调参记录11)
    本文在调参记录10的基础上,将残差模块的数量从27个增加到60个,测试采用Adaptively Parametric ReLU(APReLU)激活函数的深度残差网络,在Cifar10图像集上的效果。 Keras程序如下: {代码...} 实验结果如下(跑得好慢,不知道能不能跑完): {代码...} 准确率略有提升,但是这是以残差模块的数量翻了一倍为代价的,运算...
    2020-05-11
  • 深度残差网络+自适应参数化ReLU激活函数(调参记录20)Cifar10~94.17%
    在之前的调参记录18中,是将深度残差网络ResNet中的所有ReLU都替换成了自适应参数化ReLU(Adaptively Parametric ReLU,APReLU)。
    2020-05-15
  • k3s server 无法 kubectl get nodes 到 k3s agent
    Process: 3593 ExecStart=/usr/local/bin/k3s agent (code=exited, status=1/FAILURE)
    2021-04-23
  • [LeetCode] 763. Partition Labels
    A string S of lowercase letters is given. We want to partition this string into as many parts as possible so that each letter appears in at most one part, and return a list of integers representing the size of these parts.
    2018-12-12
  • 深度残差网络+自适应参数化ReLU激活函数(调参记录23)Cifar10~95.47%
    本文在调参记录21的基础上,增加卷积核的个数,也就是增加深度神经网络的宽度,继续尝试深度残差网络+自适应参数化ReLU激活函数在Cifar10数据集上的效果。 自适应参数化ReLU激活函数的原理如下: Keras程序: {代码...} 实验结果如下: {代码...} 比调参记录21的95.12%高了一点。怎么样能够突破96%呢? Minghang Zhao, S...
    2020-05-19
  • 【哈工大版】Dynamic ReLU:自适应参数化ReLU(调参记录21)Cifar10~95.12%
    自适应参数化ReLU是一种动态激活函数,对所有输入不是“一视同仁”,在2019年5月3日投稿至IEEE Transactions on Industrial Electronics,2020年1月24日录用,2020年2月13日在IEEE官网公布。
    2020-05-25
  • 【哈工大版】Dynamic ReLU:自适应参数化ReLU(调参记录23)Cifar10~95.47%
    自适应参数化ReLU是一种动态激活函数,对所有输入不是“一视同仁”,在2019年5月3日投稿至IEEE Transactions on Industrial Electronics,2020年1月24日录用,2020年2月13日在IEEE官网公布。
    2020-05-25
  • 深度残差网络+自适应参数化ReLU激活函数(调参记录24)Cifar10~95.80%
    本文在调参记录23的基础上,增加卷积核的个数,最少是64个,最多是256个,继续测试深度残差网络+自适应参数化ReLU激活函数在cifar10数据集上的效果。 自适应参数化ReLU激活函数被放在了残差模块的第二个卷积层之后,它的基本原理如下: Keras程序: {代码...} 实验结果: {代码...} 测试准确率是95.80%,离96%还差一点。...
    2020-05-21
  • 轻餐邦会员数据导出
    因为轻餐邦会员导出功能关闭,所以通过爬虫的方式,进行导出 代码如下 {代码...}
    2019-08-28
  • 方法,接口学习笔记
    注意,用receiver类型为T的实例去调用方法其实可以调用到所有T和*T的方法,不受方法集约束,编辑器会自动找到对应方法并转换 receiver 实参
    2017-11-21
  • 玩转AWS(六):利用Lambda函数获取S3 url写入mysql
    实战步骤样例代码 gets3url.py {代码...}
    2023-06-09