1.梯度下降
回想一下,梯度下降算法利用了梯度计算:
每个迭代在上对所有𝑗执行同步更新,
·m是数据集中训练示例的数量
·是模型的预测,而
是目标
·逻辑回归模型
𝑔(𝑧)是sigmoid函数:
2.梯度下降的实现
梯度下降算法实现有两个部分:
·实现上述式(1)的循环。下面是gradient_descent,通常在选修课和实践实验室中提供给你。
·计算偏导数,如上式(2,3)。这是下面的compute_gradient_logistic。你们将被要求完成本周的实践实验
回想一下,梯度下降算法利用了梯度计算:
每个迭代在上对所有𝑗执行同步更新,
·m是数据集中训练示例的数量
·是模型的预测,而
是目标
·逻辑回归模型
𝑔(𝑧)是sigmoid函数:
梯度下降算法实现有两个部分:
·实现上述式(1)的循环。下面是gradient_descent,通常在选修课和实践实验室中提供给你。
·计算偏导数,如上式(2,3)。这是下面的compute_gradient_logistic。你们将被要求完成本周的实践实验
RUSH阅读 1k
拓端tecdat阅读 33.7k
冒泡的马树阅读 3.4k评论 1
universe_king阅读 2.1k
超神经HyperAI阅读 2k
超神经HyperAI阅读 1.9k
超神经HyperAI阅读 1.8k
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。