Softmax回归模型
1.逻辑回归与Softmax回归,结果值的计算比较
2.逻辑回归与Softmax回归,代价函数(cost funciont)的比较
损失函数
3.神经网络中Softmax的输出
Softmax和其他函数的区别是它能够一次性算出a_1到a_10的所有概率,而其他函数一次只能算一个a_j
3.数字的舍入错误
通过使用下面的表达式来表示损失函数,它为TensorFlow提供了更多的灵活性,如何计算这个以及它是否要显式地计算a.
这里给出了可以用于此操作的代码,它的作用就是:设置输出层,只使用线性激活函数,把激活函数以及交叉熵损失(cross entropy loss)都封装进了这里特殊的损失函数里,这就是from_logits=True在TensorFlow的作用,如果你想知道logits是什么,它基本就是这个数字z,TensorFlow会把z作为中间值来计算,但它可以重新整理这些项
,使计算更精确。可以让TensorFlow的数字舍入误差小一点。
更加精确
线性回归
逻辑回归
总结:把本在模型中的softmax激活函数放到cost函数中
目的:展开运算,让计算机自行优化,提高精度
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。