
他山之玉——窥探CNN经典模型 上一篇文章介绍了CNN的基础知识以及它的优势,今天这篇文章主要来看一看一些著名的卷积神经网络的结构特点,以便我们...
初识卷积神经网络(CNN) 从今天起,正式开始讲解卷积神经网络。这是一种曾经让我无论如何也无法弄明白的东西,主要是名字就太“高级”了,网上的各种...
使用TensorFlow搭建神经网络——手写数字识别 之前又有很长一段时间在讲理论,上次实践还是用python实现Logistic regres...
深度学习中的正则化(Regularization) 一、Bias(偏差) & Variance(方差) 在机器学习中,这两个名词经常让我们傻傻分...
深度学习中的的超参数调节 我们平时一直都在说“调参、调参”,但实际上,不是调“参数”,而是调“超参数”。 一、参数(Parameter)和超参数...
神经网络的每一层基本都是在一个线性运算后面来一个非线性激活函数(Activation function),再把值传给下一层的。激活函数有多种,这...
好久没写了,之前是每周都会写一两篇,前段时候回家陪爸妈旅游了 ̄▽ ̄,这段时候又在学习keras并复现一些模型,所以一直没写。今天8月第一天,赶紧...
穷学生学习神经网络一定体会过“等待”的痛苦。。。循环一次epoch急死人,但是有几十个上百个循环等着你!你盯着屏幕看着进度条像蜗牛一样推进,真是...
前面的【DL笔记1】Logistic回归:最基础的神经网络和【DL笔记2】神经网络编程原则&Logistic Regression的算法解析讲解...
文集作者