240 发简信
IP属地:北京
  • @石磊1998 哈哈,正解

    最大熵模型+最大似然估计

    前言 最近在回顾李航的统计学习方法[1], 看到这一章, 准备好好梳理一下, 更加深入地理解原理以及背后的思想. 作者在这一章介绍了最大熵模型并且推导了对偶函数的极大化等价于...

  • 不好意思。偷懒没敲公式,粘锅来的。

    最大熵模型+最大似然估计

    前言 最近在回顾李航的统计学习方法[1], 看到这一章, 准备好好梳理一下, 更加深入地理解原理以及背后的思想. 作者在这一章介绍了最大熵模型并且推导了对偶函数的极大化等价于...

  • 120
    真正的人工智能远非大数据学习

    由于所从事行业的原因,几年来一直关注AI项目的落地和发展。这两年AI项目可谓热到烫手,可是到行业应用中就会发现离理想还太远。除了较为成熟的人脸识别、语音交互外几乎都无法...

  • 120
    学儒笔记:缘起

    十年前弃文从商,望以实业兴家。孰料落魄困顿,数度无可持守。筋骨可劳,体肤可饿,然行皆拂乱,无以有成,此最是难熬。观世之英豪,创业能成者,无不屡经困苦,谁能例外。常读东坡...

  • 不能同意更多,私以为只有更深入地理解了人脑运行地机制,在meta-learning上突破了,才能真正实现人工智能。

    真正的人工智能远非大数据学习

    由于所从事行业的原因,几年来一直关注AI项目的落地和发展。这两年AI项目可谓热到烫手,可是到行业应用中就会发现离理想还太远。除了较为成熟的人脸识别、语音交互外几乎都无法...

  • 120
    RNN

    最近真是心态炸了,标题都写错了. 前言 在之前已经复习过了CNN的主要内容, CNN在处理图像与文本的任务上有非常好的表现, 可以认为CNN侧重于构造单个结构性样本的相邻区域...

  • 120
    CNN, 从图像到NLP

    CNN研究的历史 私以为,神经网络这一大类的算法,是仿生学与数学结合的一次突破,不管是最原始的神经网络还是现在非常常见各种变种,都是在参考人类大脑的某一工作原理的工作方式,并...

  • Word2Vec原理(二)-Negative Sampling与工具包参数

    上文提到了word2vec的核心原理,本质上是对bengio的NNLM模型进行的改进, 介绍了cbow与skipgram以及Hierarchical Softmax这一实现细...

  • 120
    Word2Vec原理(一)-Cbow与SkipGram

    词嵌入 什么是EmbeddingEmbedding在数学上表示一个maping, , 也就是一个映射函数。通俗的翻译可以认为是向量嵌入,就是把X所属空间的向量映射为到Y空间的...

  • 挖坑

    做NLP也有一年半了,也占据了我工作近两年主要的工作内容,挖个坑回顾一下主要的算法相关内容把. 机器学习算法 word2vec原理: cbow与skipgram,Hierar...

  • 120
    XGBoost与GBDT(二)-算法推导

    前言 XGBoost跟GBDT是两种应用非常广泛的树模型,之前在几种最优化方法对比中,简单回顾了一下几种常见的最优化方法,算是对这篇内容的简单铺垫. 形象地来说, XGBoo...

  • 120
    XGBoost与GBDT(一)-几种最优化方法对比

    前言 发现了作者的一个pptGBDT算法原理与系统设计简介,从头复习了一波相关的内容,写两篇记录下来.从根本上来说, GBDT 与XGBoost最大的区别在于二者用的优化方法...

  • 最大似然估计+最大后验估计+LR

    前言 现代机器学习的终极问题都会转化为解目标函数的优化问题,MLE和MAP是生成这个函数的很基本的思想,因此我们对二者的认知是非常重要的。最近有时间, 我查了些资料, 加深了...

  • 最大熵模型+最大似然估计

    前言 最近在回顾李航的统计学习方法[1], 看到这一章, 准备好好梳理一下, 更加深入地理解原理以及背后的思想. 作者在这一章介绍了最大熵模型并且推导了对偶函数的极大化等价于...

  • 120
    年中记录与挖坑

    记录 前一段时间李航大佬跳槽前总结过(原文链接) 计算机上达到和人同等的对话能力还非常困难。现在的技术,一般是数据驱动,基于机器学习的。单轮对话有基于分析的,基于检索的,基于...