反向传播(英語:Backpropagation,缩写为BP)是“误差反向传播”的简称,是一种与最优化方法(如梯度下降法)结合使用的,用来训练人工神经网络的常见方法。该方法对网...

反向传播(英語:Backpropagation,缩写为BP)是“误差反向传播”的简称,是一种与最优化方法(如梯度下降法)结合使用的,用来训练人工神经网络的常见方法。该方法对网...
Bagging流派的机器学习, 其学习器之间没有没有依赖关系, 这意味着可以并行计算, Bagging的弱学习器之间没有boosting那样的联系, 它的特点在于随机采样, ...
GBDT也是集成学习Boosting家族的成员,但是却和传统的Adaboost有很大的不同。回顾下Adaboost,我们是利用前一轮迭代弱学习器的误差率来更新训练集的权重,这...
我们知道boost系列是强依赖关系, 有这个依赖, 各个学习器之间还有这些问题没有解决: 如何计算学习的误差率 如何得到弱学习器的权重 如何更新样本权重? 使用何种结合策略?...
集成学习(ensemble learning)本身不是一个单独的机器学习算法,而是通过构建并结合多个机器学习器来完成学习任务。也就是我们常说的“博采众长”。集成学习可以用于分...
决策树算法的有点 简单, 直观, 可解释性强, 建树容易 不需要预处理, 归一化, 以及处理缺失值 离散值, 连续值, 及其混合都可以处理 能够多分类 缺点 容易过拟合, 泛...
分治算法的基本思想是将一个规模为N的问题分解为K个规模较小的子问题,这些子问题相互独立且与原问题性质相同。求出子问题的解,就可得到原问题的解。即一种分目标完成程序算法,简单问...
在ID3算法中我们使用了信息增益来选择特征,信息增益大的优先选择。在C4.5算法中,采用了信息增益比来选择特征,以减少信息增益容易选择特征值多的特征的问题。但是无论是ID3还...
ID3算法存在的不足, 在C4.5里面有了改进 不能处理连续特征的问题C4.5的思路是将连续特征离散化. 比如m个样本, 特征A有m个连续的值, 取两个样本值的中位数,这样一...
基于信息增益(Information Gain)的ID3算法 ID3算法的核心是在各个结点上应用信息增益准则来进行特征选择,以此递归的构建决策树,具体方法是:从根结点开始,对...
这类问题一般给一个矩阵,要求矩阵内满足条件的一些元素。这类问题的一般做法是:先遍历整个矩阵,并找到要DFS的位置/元素, 把他们push入栈,然后对栈内元素进行DFS。当然,...
递归需要消耗额外的资源,这些资源是:1.递归由于是函数调用自身,而函数调用是有时间和空间的消耗的:每一次函数调用,都需要在内存栈中分配空间以保存参数、返回地址以及临时变量,而...
递归是实现DFS策略的经常性手段 Path Sum II Given a binary tree and a sum, find all root-to-leaf paths...
DFS一般的流程是这样的:从一个点出发,遍历其中一个邻居节点w, 然后接着遍历w的一个邻居节点,当遍历到最后一个节点之后,回退回上一个已经被遍历过的节点,接着遍历这个节点的未...
Network Delay Time There are N network nodes, labelled 1 to N. Given times, a list of t...
All Nodes Distance K in Binary Tree We are given a binary tree (with root node root), a...
1. N-ary Tree Level Order Traversal Given an n-ary tree, return the level order travers...
广度优先搜索类似二叉树的层次遍历,它的基本思想是:首先访问顶点v,接着由v出发,依次访问v的邻接节点w1,w2,.然后再依次访问w1,w2..的邻接节点。BFS不像DFS那样...