LearnFromPapers系列——标签增强技术(Label Enhancement) 作者:郭必扬 时间:2020.12.29 前言:我们...
LearnFromPapers系列——标签增强技术(Label Enhancement) 作者:郭必扬 时间:2020.12.29 前言:我们...
前言: PyTorch的torch.nn中包含了各种神经网络层、激活函数、损失函数等等的类。我们通过torch.nn来创建对象,搭建网络。PyT...
他山之玉——窥探CNN经典模型 上一篇文章介绍了CNN的基础知识以及它的优势,今天这篇文章主要来看一看一些著名的卷积神经网络的结构特点,以便我们...
初识卷积神经网络(CNN) 从今天起,正式开始讲解卷积神经网络。这是一种曾经让我无论如何也无法弄明白的东西,主要是名字就太“高级”了,网上的各种...
使用TensorFlow搭建神经网络——手写数字识别 之前又有很长一段时间在讲理论,上次实践还是用python实现Logistic regres...
深度学习中的正则化(Regularization) 一、Bias(偏差) & Variance(方差) 在机器学习中,这两个名词经常让我们傻傻分...
深度学习中的的超参数调节 我们平时一直都在说“调参、调参”,但实际上,不是调“参数”,而是调“超参数”。 一、参数(Parameter)和超参数...
神经网络的每一层基本都是在一个线性运算后面来一个非线性激活函数(Activation function),再把值传给下一层的。激活函数有多种,这...
好久没写了,之前是每周都会写一两篇,前段时候回家陪爸妈旅游了 ̄▽ ̄,这段时候又在学习keras并复现一些模型,所以一直没写。今天8月第一天,赶紧...
穷学生学习神经网络一定体会过“等待”的痛苦。。。循环一次epoch急死人,但是有几十个上百个循环等着你!你盯着屏幕看着进度条像蜗牛一样推进,真是...
专题公告
是时候坚持做一件事情了,比如坚持听完Andrew Ng的DeepLearning.ai系列课程,并尽量用自己的理解写下笔记。