240 发简信
IP属地:四川
  • 120
    Geohash算法原理及实现

    最近需要实现一个功能,查找车辆附近的加油站,如果车和加油站距离在200米以内,则查找成功。 加油站数量肯定不小,能否缩小查找范围,否则以遍历形式,效率肯定高不了。 Geoha...

  • 120
    K-BERT理解

    0. Abstract BERT它是一种从大规模语料库中学得语言表征的模型,但是,在专业领域表现不佳。为了解决该问题,作者提出了一个基于知识图谱的语言表示模型K-BERT. ...

  • 120
    Position-aware Attention and Supervised Data Improve Slot Filling论文理解

    论文题目:Position-aware Attention and Supervised Data Improve Slot Filling 发表作者:Yuhao Zhang...

  • 120
    矩阵向量求导

    本文整理自李建平机器学习中的矩阵向量求导系列和长躯鬼侠的矩阵求导术。 1. 符号说明 默认符号: :标量 : 维列向量 : 维列向量 :矩阵 :矩阵 2. 矩阵向量求...

  • EM算法

    1. EM介绍 EM(Expectation Maximization Algorithm, EM)是Dempster等人于1977年提出的一种迭代算法,用于含有隐变量的概率...

  • Python 正则表达式(完整版)

    一、正则表达式语法 (一) 字符与字符类 特殊字符:\.^$?+*{}[]()|以上特殊字符要想使用字面值,必须使用\进行转义 字符类 包含在[]中的一个或者多个字符被称为字...

  • 120
    连载 | 1. 对话系统趋势分析

    本章我会带领大家了解对话系统的趋势,以及为什么我们要搭建一个对话系统。 前Apple交互设计师是这样说的:“在未来的25年没有人会再点击下拉菜单,但是人们仍然会指着地图互相纠...

  • 120
    GloVe理解

    1. 背景介绍 词向量在很多应用中都有重要作用。现今学习词向量的方法主要分两类:1)Global Matrix Factorization Methods和2)Local c...

  • 120
    word2vec参数学习详解

    前言 word2vec虽然非常流行和被广泛关注,但即使在原作者(Mikolov et al)的文章中,也没有给出CBOW和Skip-Gram两个模型的具体推导。同时涉及到的优...

  • 信息熵相关的定义定理

    1. 信息熵 // todo 2. 条件熵 // todo 3. 联合熵 // todo 4. 相对熵KL距离 5. 互信息 // todo 6. 交叉熵 // todo

  • 120
    [Python&DS]- Python实现Huffman编码压缩和解压缩文件

    本文主要介绍Huffman编码、Huffman树、和如何借助Python实现Huffman编码树对文件进行压缩和解压缩。下文目录: 什么是Huffman编码; 如何通过Huf...

  • word2vec

    Q1: 为什么用权重矩阵作为词向量? Q2: skip-gram是输入target,预测context,那请问它的输入是什么形式?您说输入层对应的是一个神经元?那是targe...

  • 120
    表示学习与深度学习

    西瓜书、统计学习方法以及花书第二部分都已经草草看过一遍,前后历时大概3个月,期间也根据Hands-on一书敲了一些代码实现简单的模型。至此可说对于机器学习算是入了门了。然而很...

  • NP-Hard

    N、P、NP-Hard、NP-Complete // TODO

  • 120
    条件随机场(CRF)

    《统计学习方法》Page196 例11.1 设有一标注问题:输入观测序列为,输出标记序列为,取值于,求标记序列为的非结构化条件概率. Y1Y2Y3weight是否满足标记序...

  • BFGS, L-BFGS算法

    BFGS拟牛顿法的基础上,进一步绕过海塞逆矩阵的存储;L-BFGS,在BFGS的基础上,采取一些进一步的近似措施,显著减少内存占用。 // TODO

  • 牛顿法(Newton method)

    // TODO Q1:为什么牛顿法用二阶导数信息可以得到更优的方向? XGBoost中也用到二阶导数 Q2:牛顿法是否肯定收敛?如果不收敛,与什么条件有关? 结论:不一定 收...

个人介绍
Stay hungry, Stay foolish!