240 发简信
IP属地:重庆
  • Resize,w 360,h 240
    吴恩达深度学习--向量化的更多例子

    需要记住的经验之谈: 当你在编写神经网络或逻辑回归时,都要尽可能避免使用显示的for循环,有时候无法完全避免for循环,但如果能使用内置函...

  • Resize,w 360,h 240
    吴恩达深度学习--向量化

    向量化是一项让你的代码变得更高效的艺术,在深度学习的应用中,你可能会遇到大量训练数据。 什么是向量化: 如果你有一个非向量化的实现,你将会做一些...

  • Resize,w 360,h 240
    吴恩达深度学习--m个样本的梯度下降

    我们关心得J(w,b)是一个平均函数,这个损失函数L。 a^i是训练样本的预测值 以上是对于单个例子的逻辑回归。 我们可以初始化J=0,dw1 ...

  • Resize,w 360,h 240
    吴恩达深度学习--logistic回归中的梯度下降法

    如果要对一个例子进行梯度下降,需要用公式算出dz,然后算出dw1、dw2、db, 然后进行更新w1、w2、b 我们关心得J(w,b)是一个平均函...

  • Resize,w 360,h 240
    吴恩达深度学习--梯度下降法

    代价函数J可以衡量你的参数W和b在训练集上的效果。要使得参数w和b设置合理自然地想到要去找到使得代价函数J(w,b)尽可能小所对应的w和b...

  • Resize,w 360,h 240
    吴恩达深度学习--logitic回归损失函数

    2.3logitic回归损失函数 学习损失函数和误差函数可以用来检测算法运行情况,如在算法输出时定义损失,yhat和实标y有可能是一个或半...

  • Resize,w 360,h 240
    吴恩达深度学习--逻辑回归

    2.2逻辑回归 使用这种学习算法会得到的输出标签y,y在监督学习问题中全是0或者1,因此这是一种针对二分类问题的算法。 给定的输入...