Softmax回归模型

1.逻辑回归与Softmax回归,结果值的计算比较

图片.png

2.逻辑回归与Softmax回归,代价函数(cost funciont)的比较

图片.png
损失函数图片.png
3.神经网络中Softmax的输出
Softmax和其他函数的区别是它能够一次性算出a_1到a_10的所有概率,而其他函数一次只能算一个a_j
图片.png

3.数字的舍入错误

通过使用下面的表达式来表示损失函数,它为TensorFlow提供了更多的灵活性,如何计算这个以及它是否要显式地计算a.
图片.png

这里给出了可以用于此操作的代码,它的作用就是:设置输出层,只使用线性激活函数,把激活函数图片.png以及交叉熵损失(cross entropy loss)都封装进了这里特殊的损失函数里,这就是from_logits=True在TensorFlow的作用,如果你想知道logits是什么,它基本就是这个数字z,TensorFlow会把z作为中间值来计算,但它可以重新整理这些项图片.png,使计算更精确。可以让TensorFlow的数字舍入误差小一点。
图片.png
更加精确
线性回归
图片.png
逻辑回归
总结:把本在模型中的softmax激活函数放到cost函数中
目的:展开运算,让计算机自行优化,提高精度
图片.png


RUSH
1 声望1 粉丝