python 日志中最亮的仔,是喜欢的花里胡哨吖...
这个日志模块好像在清华大学的镜像站里面下载不到,别的镜像站没有试过。我是直接在官网的地址中下载的…【阅读全文】 {代码...} 使用比较简单的,设置完直接调用就行了。 {代码...} 设置控制台打印,这里的日志名称填写的是:日志模块测试项目。 {代码...} 各种模式情况下的打印效果。 {代码...} 使用默认配置下日志打印...
2022-02-21
less青蛙与船的动图
原网址:[链接]我拿来改了一点点。使用了CSS的动画: {代码...}
2021-04-03
深度残差网络+自适应参数化ReLU激活函数(调参记录17)
在调参记录16的基础上,增加了两个残差模块,继续测试其在Cifar10数据集上的效果。 自适应参数化ReLU激活函数的基本原理如下: Keras程序: {代码...} 实验结果如下(为了方便观看,删除了部分等号): {代码...} 到目前为止,还没有过拟合的迹象。 似乎将自适应参数化ReLU激活函数中第一个全连接层的神经元个数设置为1/...
2020-05-12
聊聊kingbus的startMasterServer
序 本文主要研究一下kingbus的startMasterServer startMasterServer kingbus/server/server.go {代码...} startMasterServer方法先执行NewBinlogServer创建master,然后执行master的Start方法 NewBinlogServer kingbus/server/binlog_server.go {代码...} NewBinlogServer方法通过new方法创建BinlogServer,之后设置其li...
2020-06-19
Java中equals和==的区别
今天写项目时判断String相等用的“==”,结果半天就是不出结果……最后才发现自己犯了这么弱智的问题……正好趁这个机会把java中的equals方法和“==”间的区别梳理一下,以后保证不再犯!
深度残差网络+自适应参数化ReLU激活函数(调参记录11)
本文在调参记录10的基础上,将残差模块的数量从27个增加到60个,测试采用Adaptively Parametric ReLU(APReLU)激活函数的深度残差网络,在Cifar10图像集上的效果。 Keras程序如下: {代码...} 实验结果如下(跑得好慢,不知道能不能跑完): {代码...} 准确率略有提升,但是这是以残差模块的数量翻了一倍为代价的,运算...
2020-05-11
[LeetCode] 763. Partition Labels
A string S of lowercase letters is given. We want to partition this string into as many parts as possible so that each letter appears in at most one part, and return a list of integers representing the size of these parts.
2018-12-12
方法,接口学习笔记
注意,用receiver类型为T的实例去调用方法其实可以调用到所有T和*T的方法,不受方法集约束,编辑器会自动找到对应方法并转换 receiver 实参
2017-11-21
深度残差网络+自适应参数化ReLU激活函数(调参记录20)Cifar10~94.17%
在之前的调参记录18中,是将深度残差网络ResNet中的所有ReLU都替换成了自适应参数化ReLU(Adaptively Parametric ReLU,APReLU)。
2020-05-15
k3s server 无法 kubectl get nodes 到 k3s agent
Process: 3593 ExecStart=/usr/local/bin/k3s agent (code=exited, status=1/FAILURE)
玩转AWS(六):利用Lambda函数获取S3 url写入mysql
实战步骤样例代码 gets3url.py {代码...}
2023-06-09
深度残差网络+自适应参数化ReLU激活函数(调参记录23)Cifar10~95.47%
本文在调参记录21的基础上,增加卷积核的个数,也就是增加深度神经网络的宽度,继续尝试深度残差网络+自适应参数化ReLU激活函数在Cifar10数据集上的效果。 自适应参数化ReLU激活函数的原理如下: Keras程序: {代码...} 实验结果如下: {代码...} 比调参记录21的95.12%高了一点。怎么样能够突破96%呢? Minghang Zhao, S...
2020-05-19
【哈工大版】Dynamic ReLU:自适应参数化ReLU(调参记录21)Cifar10~95.12%
自适应参数化ReLU是一种动态激活函数,对所有输入不是“一视同仁”,在2019年5月3日投稿至IEEE Transactions on Industrial Electronics,2020年1月24日录用,2020年2月13日在IEEE官网公布。
2020-05-25
【哈工大版】Dynamic ReLU:自适应参数化ReLU(调参记录23)Cifar10~95.47%
自适应参数化ReLU是一种动态激活函数,对所有输入不是“一视同仁”,在2019年5月3日投稿至IEEE Transactions on Industrial Electronics,2020年1月24日录用,2020年2月13日在IEEE官网公布。
2020-05-25
深度残差网络+自适应参数化ReLU激活函数(调参记录24)Cifar10~95.80%
本文在调参记录23的基础上,增加卷积核的个数,最少是64个,最多是256个,继续测试深度残差网络+自适应参数化ReLU激活函数在cifar10数据集上的效果。 自适应参数化ReLU激活函数被放在了残差模块的第二个卷积层之后,它的基本原理如下: Keras程序: {代码...} 实验结果: {代码...} 测试准确率是95.80%,离96%还差一点。...
2020-05-21
轻餐邦会员数据导出
因为轻餐邦会员导出功能关闭,所以通过爬虫的方式,进行导出 代码如下 {代码...}
2019-08-28
Leetcode 5. Longest Palindromic Substring
首先初始化,i>=j时,flagi=true,这是因为si是单字符的回文,当i>j时,为true,是因为有可能出现flag2这种情况,比如bcaa,当计算s从2到3的时候,s[2]==s[3],这时就要计算s[2+1] ?= s[3-1],总的来说,当i>j时置为true,就是为了考虑j=i+1这种情况。
2016-10-10