首先根据最大似然估计找到目标 函数
似然函数为
对数似然为
代价函数为
梯度下降,逐渐更新`$\theta$`
设
变量替换,即可由h(x)变换为g(x)
`$\alpha$`是学习速率,然后偏导即为梯度方向:
上述式子的第三步到第四步,是线性回归的偏导数求法,这里不作展开
上述式子的第二步到第三步,下面有详细推导。
其中最后一步的良好性质,正是我们选择sigmoid函数的原因
首先根据最大似然估计找到目标 函数
似然函数为
对数似然为
代价函数为
梯度下降,逐渐更新`$\theta$`
设
变量替换,即可由h(x)变换为g(x)
`$\alpha$`是学习速率,然后偏导即为梯度方向:
上述式子的第三步到第四步,是线性回归的偏导数求法,这里不作展开
上述式子的第二步到第三步,下面有详细推导。
其中最后一步的良好性质,正是我们选择sigmoid函数的原因