240 发简信
IP属地:云南
  • NLP-激活函数相关

    激活函数的作用是什么? 激活函数的作用是:引入非线性因素,提高了模型的表达能力。如果没有激活函数,那么模型就只有线性变换,可想而知线性模型能表达的空间是有限的。而激活函数引入...

  • AI常见面试35题

    1.为什么LR用交叉熵损失而不是平方损失 交叉熵做损失函数,训练时传播的梯度和训练误差是成正比的(单调),而当采用均方误差做损失函数时,训练时传播的梯度和训练误差不是成正比的...

  • 《机器学习》-Adaboost算法源码解析

    优点:泛化错误率低,易编码,可以应用在大部分分类器上,无参数调整。缺点:对离群点敏感。适用数据类型:数值型和标称型数据。 (1) 收集数据:可以使用任意方法。(2) 准备数据...

  • BERT

    k近邻算法的k值怎么选择 具体做法是让k从1开始取值直到取到你认为合适的上限(一般来说这个上限不会太大,这里我们选取上限为8),对每一个k值进行聚类并且记下对于的SSE(误差...

  • NLP-(RNN/LSTM/GRU/CNN)

    简单介绍一下RNN、LSTM、GRU?他们的区别和联系是什么? RNN即Recurrent Neural Networks、循环神经网络,本质是一个全连接网络,但是因为当前时...

  • 《机器学习实战》笔记(二):Ch2 - k-邻近算法

    第二章 K-近邻算法(代码) K-近邻算法优缺点-. 优点:精度高,对异常值步敏感,无数据输入假定。缺点:计算复杂度高,空间复杂度高。范围:数值型和标称型。 测试分类器错误率...

  • 波普艺术feedback总结

    在前两周的课堂抽签中,我们小组抽到了熟悉的波普艺术,我们也通过一周的收集和整理,完成了波普艺术的ppt并在今天完成了演讲,所以在听取了别的小组同学的建议和想法后,在此做一个简...

  • 240
    机器学习:04. 随机森林之RandomForestClassifier

    1. 集成算法 1.1 集成算法是通过在数据上构建多个模型,集成所有模型的建模结果,包括随机森林,梯度提升树(GBDT),Xgboost等。1.2 多个模型集成成为的模型叫做...

  • task5

    模型融合应用广发的原因: 可以通过数学证明模型,随着集成中个体分类器数目T 的增大,集成的错误率将指数级下降,最终趋向于零。具体证明在周志华和李航老师的书中都有。 模型融合是...