决策树的深度:max_depth=2 非参数学习 可以解决分类问题、多分类问题、回归问题 非常好的可解释性 计算信息熵 pruning 剪枝分的...
决策树的深度:max_depth=2 非参数学习 可以解决分类问题、多分类问题、回归问题 非常好的可解释性 计算信息熵 pruning 剪枝分的...
Batch Gradient Descent:某1点的θ的梯度值,每1项都要对所有的样本进行计算,前面都有,样本中所有信息批量进行计算。 样本量...
机器学习是个熵降的过程一个具体事件的信息量应该是随着其发生概率而递减的,且不能为负。 信息量 信息量和信息熵 信息量,熵,交叉熵,相对熵与代价函...
并不是所有函数都有唯一的极值点 多次运行,随机化初始点 梯度下降法的初始点也是一个超参数 目标:使尽可能小 线性回归法的损失函数具有唯一的最优解...
逻辑回归 解决分类问题 把任意值,映射到(0, 1)之间;判定边界 将样本的特征 和 样本发生的概率 联系起来,概率是1个数 逻辑回归得到1个概...
代码地址:appke/Los-House-Prices: 洛杉矶房价预测 房价预测Baseline 暴力填充 训练模型 评估结果 制作训练集、评...
代码地址:appke/Los-House-Prices: 洛杉矶房价预测 人工智能的Pipeline 数据清洗清洗数据处理数据如何做特征工程,如...
根据已知数据,找到一个模型,来做预测 可视化 建立假设 Y = kx+b 利用 diabetes(糖尿病)数据集来学习线性回归 Linear R...
喂给算法大量数据,训练出模型 给算法大量数据,让算法在数据中寻找规律(关系),从而执行智能任务 不确定世界中的真实问题,与经典问题相比,没有标准...
专题公告
机器学习、深度学习、TensorFlow
github资料:https://github.com/appke