基础算法 常见面试篇
1.1 过拟合和欠拟合 常见面试篇
- 一、过拟合和欠拟合 是什么?
二、过拟合 / 高方差(overfiting / high variance)篇
- 2.1 过拟合是什么及检验方法?
- 2.2 导致过拟合的原因是什么?
- 2.3 过拟合的解决方法是什么?
三、欠拟合 / 高偏差(underfiting / high bias)篇
- 3.1 欠拟合是什么及检验方法?
- 3.2 导致欠拟合的原因是什么?
- 3.3 过拟合的解决方法是什么?
1.2 BatchNorm vs LayerNorm 常见面试篇
一、动机篇
- 1.1 独立同分布(independent and identically distributed)与白化
- 1.2 ( Internal Covariate Shift,ICS)
- 1.3 ICS 问题带来的后果是什么?
二、Normalization 篇
- 2.1 Normalization 的通用框架与基本思想
三、Batch Normalization 篇
- 3.1 Batch Normalization(纵向规范化)是什么?
- 3.2 Batch Normalization(纵向规范化)存在什么问题?
- 3.3 Batch Normalization(纵向规范化)适用的场景是什么?
- 3.4 BatchNorm 存在什么问题?
四、Layer Normalization(横向规范化) 篇
- 4.1 Layer Normalization(横向规范化)是什么?
- 4.2 Layer Normalization(横向规范化)有什么用?
- 五、BN vs LN 篇
- 六、主流 Normalization 方法为什么有效?
1.3 激活函数 常见面试篇
一、动机篇
- 1.1 为什么要有激活函数?
二、激活函数介绍篇
2.1 sigmoid 函数篇
- 2.1.1 什么是 sigmoid 函数?
- 2.1.2 为什么选 sigmoid 函数 作为激活函数?
- 2.1.3 sigmoid 函数 有什么缺点?
2.2 tanh 函数篇
- 2.2.1 什么是 tanh 函数?
- 2.2.2 为什么选 tanh 函数 作为激活函数?
- 2.2.3 tanh 函数 有什么缺点?
2.3 relu 函数篇
- 2.3.1 什么是 relu 函数?
- 2.3.2 为什么选 relu 函数 作为激活函数?
- 2.3.3 relu 函数 有什么缺点?
- 三、激活函数选择篇
1.4 正则化常见面试篇
一、L0,L1,L2 正则化 篇
- 1.1 正则化 是什么?
- 1.2 什么是 L0 正则化 ?
- 1.3 什么是 L1 (稀疏规则算子 Lasso regularization)正则化 ?
- 1.4 什么是 L2 正则化(岭回归 Ridge Regression 或者 权重衰减 Weight Decay)正则化 ?
二、对比篇
- 2.1 什么是结构风险最小化?
- 2.2 从结构风险最小化的角度理解 L1 和 L2 正则化
- 2.3 L1 vs L2
三、dropout 篇
- 3.1 什么是 dropout?
- 3.2 dropout 在训练和测试过程中如何操作?
- 3.3 dropout 如何防止过拟合?
1.5 优化算法及函数 常见面试篇
一、动机篇
- 1.1 为什么需要 优化函数?
- 1.2 优化函数的基本框架是什么?
二、优化函数介绍篇
- 2.1 梯度下降法是什么?
- 2.2 随机梯度下降法是什么?
- 2.3 Momentum 是什么?
- 2.4 SGD with Nesterov Acceleration 是什么?
- 2.5 Adagrad 是什么?
- 2.6 RMSProp/AdaDelta 是什么?
- 2.7 Adam 是什么?
- 2.8 Nadam 是什么?
- 三、优化函数学霸笔记篇
1.6 归一化 常见面试篇
一、动机篇
- 1.1 为什么要归一化?
二、介绍篇
- 2.1 归一化 有 哪些方法?
- 2.2 归一化 各方法 特点?
- 2.3 归一化 的 意义?
三、应用篇
- 3.1 哪些机器学习算法 需要做 归一化?
- 3.2 哪些机器学习算法 不需要做 归一化?
1.8 [判别式(discriminative)模型 vs. 生成式 (generative) 模型 常见面试篇]
一、判别式模型篇
- 1.1 什么是判别式模型?
- 1.2 判别式模型是思路是什么?
- 1.3 判别式模型的优点是什么?
二、生成式模型篇
- 2.1 什么是生成式模型?
- 2.2 生成式模型是思路是什么?
- 2.3 生成式模型的优点是什么?
- 2.4 生成式模型的缺点是什么?
机器学习算法篇 常见面试篇
2.1 逻辑回归 常见面试篇
一、介绍篇
- 1.1 什么是逻辑回归
- 1.2 逻辑回归的优势
二、推导篇
- 2.1 逻辑回归推导
- 2.2 求解优化
2.2 支持向量机 常见面试篇
一、原理篇
1.1 什么是 SVM?
- Q.A
- 1.2 SVM 怎么发展的?
1.3 SVM 存在什么问题?
- Q.A
二、算法篇
- 2.1 什么是块算法?
- 2.2 什么是分解算法?
- 2.3 什么是序列最小优化算法?
2.4 什么是增量算法?
- Q.A
三、其他 SVM 篇
- 3.1 什么是最小二次支持向量机?
- 3.2 什么是模糊支持向量机?
- 3.3 什么是粒度支持向量机?
- 3.4 什么是多类训练算法?
- 3.5 什么是孪生支持向量机?
3.6 什么是排序支持向量机?
- Q.A
四、应用篇
- 4.1 模式识别
- 4.2 网页分类
- 4.3 系统建模与系统辨识
- 4.4 其他
- 五、对比篇
- 六、拓展篇
2.3 集成学习 常见面试篇
- 一、动机
二、集成学习介绍篇
2.1 介绍篇
- 2.1.1 集成学习的基本思想是什么?
- 2.1.2 集成学习为什么有效?
三、 Boosting 篇
- 3.1 用一句话概括 Boosting?
- 3.2 Boosting 的特点是什么?
- 3.3 Boosting 的基本思想是什么?
- 3.4 Boosting 的特点是什么?
- 3.5 GBDT 是什么?
- 3.6 Xgboost 是什么?
四、Bagging 篇
- 4.1 用一句话概括 Bagging?
- 4.2 Bagging 的特点是什么?
- 4.3 Bagging 的基本思想是什么?
- 4.4 Bagging 的基分类器如何选择?
- 4.5 Bagging 的优点 是什么?
- 4.6 Bagging 的特点是什么?
- 4.7 随机森林 是什么?
五、 Stacking 篇
- 5.1 用一句话概括 Stacking ?
- 5.2 Stacking 的特点是什么?
- 5.3 Stacking 的基本思路是什么?
六、常见问题篇
- 6.1 为什么使用决策树作为基学习器?
- 6.2 为什么不稳定的学习器更适合作为基学习器?
- 6.3 哪些模型适合作为基学习器?
- 6.4 Bagging 方法中能使用线性分类器作为基学习器吗? Boosting 呢?
- 6.5 Boosting/Bagging 与 偏差 / 方差 的关系?
七、对比篇
- 7.1 LR vs GBDT?
关于 Python
【关于 Python 】
一、什么是 args 和 *kwargs?
- 1.1 为什么会有 args 和 *kwargs?
- 1.2 args 和 *kwargs 的用途是什么?
- 1.3 *args 是什么?
- 1.4 **kwargs 是什么?
- 1.5 args 与 *kwargs 的区别是什么?
二、什么是装饰器?
- 2.1 装饰器是什么?
- 2.2 装饰器怎么用?
三、Python 垃圾回收(GC)
- 3.1 垃圾回收算法有哪些?
- 3.2 引用计数(主要)是什么?
- 3.3 标记 - 清除是什么?
- 3.4 分代回收是什么?
四、python 的 sorted 函数对字典按 key 排序和按 value 排序
- 4.1 python 的 sorted 函数是什么?
- 4.2 python 的 sorted 函数举例说明?
五、直接赋值、浅拷贝和深度拷贝
- 5.1 概念介绍
- 5.2 介绍
- 5.3 变量定义流程
- 5.3 赋值
- 5.4 浅拷贝
- 5.5 深度拷贝
5.6 核心:不可变对象类型 and 可变对象类型
- 5.6.1 不可变对象类型
- 5.6.2 可变对象类型
六、进程、线程、协程
6.1 进程
- 6.1.1 什么是进程?
- 6.1.2 进程间如何通信?
6.2 线程
- 6.2.1 什么是线程?
- 6.2.2 线程间如何通信?
6.3 进程 vs 线程
- 6.3.1 区别
- 6.3.2 应用场景
6.4 协程
- 6.4.1 什么是协程?
- 6.4.2 协程的优点?
七、全局解释器锁
- 7.1 什么是全局解释器锁?
- 7.2 GIL 有什么作用?
- 7.3 GIL 有什么影响?
- 7.4 如何避免 GIL 带来的影响?
关于 Tensorflow
【关于 Tensorflow 损失函数】
- 一、动机
- 二、什么是损失函数?
- 三、目标函数、损失函数、代价函数之间的关系与区别?
四、损失函数的类别
4.1 回归模型的损失函数
- (1)L1 正则损失函数(即绝对值损失函数)
- (2)L2 正则损失函数(即欧拉损失函数)
- (3)均方误差(MSE, mean squared error)
- (4)Pseudo-Huber 损失函数
4.2 分类模型的损失函数
- (1)Hinge 损失函数
- (2)两类交叉熵(Cross-entropy)损失函数
- (3)Sigmoid 交叉熵损失函数
- (4)加权交叉熵损失函数
- (5)Softmax 交叉熵损失函数
- (6) SparseCategoricalCrossentropy vs sparse_categorical_crossentropy
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。