1.非线性假设 我们之前学的,无论是线性回归还是逻辑回归都有这样一个缺点,即:当特征太多时,计算的负荷会非常大。 下面是一个例子: 如果n是原始...
![240](https://upload.jianshu.io/collections/images/651640/Learn.png?imageMogr2/auto-orient/strip|imageView2/1/w/240/h/240)
收录了6篇文章 · 1人关注
1.非线性假设 我们之前学的,无论是线性回归还是逻辑回归都有这样一个缺点,即:当特征太多时,计算的负荷会非常大。 下面是一个例子: 如果n是原始...
1.决定下一步做什么 到目前为止,我们已经介绍了许多不同的学习算法,如果你一直跟着这些视频的进度学习,你会发现自己已经不知不觉地成为一个了解许多...
设置优化问题 第一课:规范化输入 当训练神经网络时,有一种加速训练过程的方法,那就是对输入进行归一化。 对输入归一化包含两个步骤:第一步是将减去...
写在前面 课程1: 深度学习简介找合适的函数评价函数选择深度而非广度DIY 课程2: 训练深度网络的注意事项选择合适的损失函数Mini-batc...
损失函数(loss function)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))...
三种常见的激活函数对比如下 7种参数优化方法优缺点比较
专题公告
论文相关学习