第十八节逻辑回归之交叉熵损失函数梯度求解过程(3)
上一节中, 我们讲解了交叉熵损失函数的概念, 目标是要找到使得损失函数最小的那组θ, 也就是 l(θ)最大, 即预测出来的结果在训练集上全部正确的概率最大. 那我们怎么样找到我们的最优解呢? 上节中提出用梯度下降法求解, 本节的话我们对其具体细节展开.
先来看下我们用梯度下降求解最优解, 想要通过梯度下降优化 L(θ)到最小值需要几步?
第一步, 随机产生 w, 随机到 0 附近会比较好一点, w 随机到 0 附近就意味着不管用 L1 还是 L2 正则的时候, 可以使 w 的整体比较小. L1 和 L2 正则同样可以用到逻辑回归里面去, 来使得逻辑回归的损失函数 obj 相对比较小, 然后使得我们模型具有推广能力和泛化能力. 其实任何算法, 都可以去使用 L1 和 L2 来提高模型的泛化能力, 本质上就是减少模型的复杂度. 所以以后未来碰到任何的算法, w 在随机的过程当中, 我们最好用期望为 0 的正态分布, 来随机产生 n+1 个 w.
第二步是求梯度, 对于逻辑回归来说, 如果用 SGD 求梯度, 我们得用交叉熵的损失函数来得到它的导函数, 然后才可以知道某一个值的时候它的梯度是多少.
第三步是, 它本质是一阶泰勒展开近似.
第四步是判断收敛, 其实就是第二第三步循环往复来执行.
四步里面第二步求解交叉熵损失函数的导函数求得其梯度是最关键的. 我们对其展开来说. 我们再来看下我们的目标函数:
把负号提出来再加上 1/m 就是:
至于求导梯度时为什么要加 - 1/m, 可以参考第六节梯度下降之从单元函数理解梯度下降过程(1)
我们要对损失函数里每个 w 求偏导, 也就是对每一部分求偏导. w 在 pi 里面, pi=1/(1+e-w^Tx), 也可写成 h(θ)x. 上面可拆成左右两部分求导, 先对左半部分 yi*log pi 求导, 我们是对 wj 即 (θj) 求偏导, 跟 yi 没关系, 因为(lnx)'=1/x , 并且 log pi 是复合函数, 需要对里外分别求导, 即:
后半部分同理复合函数求导,
即 :
又因为 求导结果为
. 而 p(xi;w) 实际上就是关于θ的函数, 可以写成 h(θ)x. 所以
左右两部分求导结合起来后损失函数表示成:
hθ(x)=1/(1+e-θ^Tx), 是关于θ^Tx 的 Sigmoid 函数. 所以可以用 g(θTx)表示, 所以损失函数推导部分又可以写成:
又因为 (1/x)'=-1/x2,(ex)'= ex,(-z)'=-1, 所以 实际上展开就是:
好吧看到这是不是很晕眩, 实际上耐心下来, 跟着我的思路去走, 就会很好理解上面的公式. 我们继续吧, 很快就结束了, 也快大功告成了. 我们对 上面展开后的公式继续展开, 整理即:
因为 z 就是θTx,hθ(x)=1/(1+e-θ^Tx)是关于θ^Tx 的 Sigmoid 函数. 同样可以用 g(θTx)表示. 所以上面 展开后的公式最后可以表示成:
所以损失函数可以推导成:
而θTx 就是θ1x1+θ2x2+......+θjxj+......+θnxn, 如果对θj 求偏导, 只剩 xj. 即 .
xij 这种表达方式大家应该已经习惯了, 因为 i 代表第 i 行, j 代表第 j 列, 因为损失函数前面有一个加和符号, 所以它实际上还是每一行的事. 接下来就是把损失函数式子拆开, 正负相消即:
最后一步是把前面的负号放进去得到的. 到此我们推导成功, 擦擦汗, 真不容易!!!. 它就是逻辑回归的导函数, 你会发现它推导之后和 mse 的导函数是一样的, 都是 (hθ(x)-y)*xj 这种形式. 只不过在多元线性回归的时候, hθ(x) 是 wTx, 在逻辑回归里面, hθ(x)是 1/(1+e-θTx).hθ(x)不一样, 但是整体形式一样. 所以这也是它叫逻辑回归的一个很大原因.
有了逻辑回归损失函数推出来的导函数, 我们用梯度下降求解的时候, 我们就可以把第三步中的 这一部分算出来了. 只要给我一组 w, 或者θ,w0 一直到 wn. 有了θ,x,y,xj, 我就可以把导数求出来. 有了导数, 继而求得梯度. 然后就可以用梯度下降公式去求解了.
下一节中我们讲解逻辑回归的优化.
来源: https://www.cnblogs.com/LHWorldBlog/p/10797787.html