240 发简信
IP属地:重庆
  • 120
    xgboost的原理没你想像的那么难

    xgboost 已然火爆机器学习圈,相信不少朋友都使用过。要想彻底掌握xgboost,就必须搞懂其内部的模型原理。这样才能将各个参数对应到模型内部,进而理解参数的含义,根据需...

  • XGBoost_原理

    Xgboost原理 1. 说明:  难了不会,会了不难,你明白了,觉得这还用说?不明白,跳步之后,似懂非懂。本篇是我对论文《XGBoost: A Scalable Tr...

  • 120
    线性回归原理以及Python实现

    2018.12.9 星期天 阴 biolearn在统计学中,线性回归是利用线性回归方程对一个或多个自变量和因变量之间的关系进行建模的一种回归分析方法,只有一个自变量的...

  • 日妈说好不写Java的?

    React Naitve唤醒三方APP

    可以通过此方法唤醒内置应用 如设置、电话簿.....或者调用三方应用 android唤醒 android 唤醒APP需要原生支持,通过包名来唤醒APP 新建如下一个文件夹(o...

  • fasttext

    详情见 http://albertxiebnu.github.io/fasttext/

  • word2vec负采样

    负采样算法 任何采样算法都应该保证频次越高的样本越容易被采样出来。基本的思路是对于长度为1的线段,根据词语的词频将其公平地分配给每个词语: counter就是w的词频。于是我...

  • Skip-Gram 模型

    什么是Word2Vec和Embeddings? Word2Vec是从大量文本语料中以无监督的方式学习语义知识的一种模型,它被大量地用在自然语言处理(NLP)中。那么它是如何帮...

  • fasttext文本分类与原理

    预备知识 为了更好的理解fastText,我们先来了解一些预备知识。第一个是BoW模型,也叫做词袋模型。BoW模型(Bag of words)应用于自然语言处理、信息检索和图...

  • LDA建模

    数据: 首先我们来看一眼数据:语料库中有9篇文档,每篇文档为1行。数据保存在文件名为16.LDA_test.txt的文本文件中。 程序: (1)首先,将这个文件读进来: (2...

  • word2vec与fasttext前篇

    word2vec思想 word2vec的核心是神经网络,采用 CBOW(Continuous Bag-Of-Words,即连续的词袋模型)和 Skip-Gram 两种模型,将...

  • gensim训练词向量

    txt文件是已经分好词的5W条评论,训练模型只需一句话: 第一个参数是训练语料,第二个参数是小于该数的单词会被剔除,默认值为5,第三个参数是神经网络的隐藏层单元数,默认为10...

  • HMM分词

    模型 HMM的典型模型是一个五元组:StatusSet: 状态值集合ObservedSet: 观察值集合TransProbMatrix: 转移概率矩阵EmitProbMatr...

  • gensim做主题模型

    我调用了结巴分词做中文处理,所以同样 手工写个文本列表 回到过程中来,将范例的语句分词 输出: 得到的分词结果构造词典 为了方便看,我给了个循环输出: 输出: 词典生成好之后...

  • gensim测试文本相似度

    如何计算两个文档的相似度(二) 正常情况下,需要对英文文本做一些预处理工作,譬如去停用词,对文本进行tokenize,stemming以及过滤掉低频的词,但是为了说明问题,也...

  • jieba分词基本使用

    jieba “结巴”中文分词:做最好的 Python 中文分词组件 算法 基于前缀词典实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图 (DAG)采用了动...