【李宏毅机器学习任务五】
负责人:王佳旭
课程设计人:王佳旭
学习打卡内容:
推导LR损失函数(1)
学习LR梯度下降(2)
利用代码描述梯度下降(选做)(3)
Softmax原理(4)
softmax损失函数(5)
softmax梯度下降(6)
(1)推导Logistic Regression损失函数
解释:上边注释变形的原因找到了,这样做形式转换的前提就是当为C1分类时,y=1,当为C2分类时,y=0,等式左右两边只是数值相当。
(2)学习LR梯度下降
Softmax原理(4)
【李宏毅机器学习任务五】
负责人:王佳旭
课程设计人:王佳旭
学习打卡内容:
推导LR损失函数(1)
学习LR梯度下降(2)
利用代码描述梯度下降(选做)(3)
Softmax原理(4)
softmax损失函数(5)
softmax梯度下降(6)
(1)推导Logistic Regression损失函数
解释:上边注释变形的原因找到了,这样做形式转换的前提就是当为C1分类时,y=1,当为C2分类时,y=0,等式左右两边只是数值相当。
(2)学习LR梯度下降
Softmax原理(4)