240 发简信
IP属地:广东
  • 120
    [Kaggle] M5 Forecasting - Accuracy summary

    Chapter Backgroud Feature engineering Data selection Loss function & weight Train Strat...

  • 120
    Struc2Vec论文浅见

    1. Abstract 在过往很多的Graph embedding都是通过节点的相似度组织语料,如node2vec,deepwalk都是基于根据邻居节点的相似度来组织语料,然...

  • 120
    2019-CCF乘用车细分市场销量预测-Rank19

    1. Abstract 在市场整体趋势逐步改变的环境下,比赛方希望能在销量数据自身趋势规律的基础上,找到消费者在互联网上的行为数据与销量之间的相关性,更准确有效地预测销量趋势...

  • @无_8a33 我也是这么想,正负号反了

    XGBoost论文阅读及其原理

    1. Abstract Boosting tree是一种有广泛应用的技术。听到boosting一词都知道它是一种迭代的更新的逐步降低模型整体的误差的办法如Adboost,当年...

  • @豪门百里 抱歉,代码相对比较混乱。我会努力改进好的,另外这份代码主要参考tensorflow的代码教程。

    Tensorflow[基础篇]——LSTM的理解与实现

    前言 本文参考了tensorflow github里面的实现的lstm的教程代码6_lstm.ipynb。因为这代码即实现了lstm,也实操了tf的内容,可以说是一箭双雕。 ...

  • 120
    Kaggle比赛 (Quora Insincere Questions Classification)

    1. Abstract Quora是问答SNS网站,可以看作是国内的知乎.在该网站上有很多不同的问题需要大家解答,但是里面存在很多色情,种族歧视,辱骂等的问题(例如如何人体自...

  • 120
    Learning MobileNet v1 v2 and ShuffleNet v1 v2

    1. Abstract 目前神经网络大部分都是运行在具有强大的浮点运算能力的服务器上面。如此庞大的网络是无法在普通PC上面运行,更不可能在移动端上面运行。但是由于业务需要和程...

  • 我把Model里面的模型换了一下而已

    Android制造 FaceID [FaceNet + MobileNet]

    1. Abstract 好久没有在简书上写文章,最近在弄关于人脸识别的内容和研读一些论文。碰巧Apple的新iPhone X搭配了Face ID进行刷脸,我有一个想法,给An...

  • 120
    CTR的一些模型方案

    1. Abstract 最近小弟参加了腾讯广告算法竞赛,虽然之前做了一次总结。但我觉得之前那个可能有点泛泛而谈,因此本次想仔细的讲讲关于CTR\推荐算法常用的一些模型。对于C...

  • 120
    LightGBM原理分析

    1. Abstract 在之前我介绍过XGB模型,这次想跟大家分享一下LightGBM这个模型。LightGBM论文的标题为A Highly Efficient Gradie...

  • 120
    2018第二届腾讯广告算法大赛(持续更新)

    1. Abstract 小弟最近这前一段时间参加了腾讯广告算法比赛,所以趁热打铁记录比赛的一些操作和得与失。我参加这场比赛的时候已经离初赛结束还有一周的时间了,因为我同学刚好...

  • 120
    Kaggle比赛 (toxic comment classification)

    1. Abstract 本次Kaggle比赛是做NLP的情感分类,要求我们将六种不同的情感分类找出来(toxic(恶意),severetoxic(穷凶极恶),obscene(...

  • 120
    XGBoost论文阅读及其原理

    1. Abstract Boosting tree是一种有广泛应用的技术。听到boosting一词都知道它是一种迭代的更新的逐步降低模型整体的误差的办法如Adboost,当年...

  • 你的第一个问题是因为我最后讲vec转换为word的原因,因为to_word这个函数(create_poetry.py中)
    --------------------------------------------
    t = np.cumsum(weights)
    s = np.sum(weights)
    sample = int(np.searchsorted(t, np.random.rand(1) * s))
    return reversed_dictionary[sample]
    ------------------------------------------------
    假设现有词向量w= [1, 2, 3],t是词向量的权值累加值也就是[1, 3, 5], 而s是所有权值的总和,random.rand(1) * s < s因为rand(1)的区间在[0, 1),所以不能这里随机值取值不可能等于5,searchsorted(a, v)方法是代表v值在a向量中插入的position,显然v肯定会小于等于len(w) - 1,也就是output_size - 1(input_size - 1),假如input_size = output_size = len(dictionary) 的话,最后一个字词是永远选不上的。

    这也是我代码写得不好的地方啦

    Tensorflow[实战篇]——LSTM自动生成唐诗

    Preface 前几天的台风(天鸽)给广东省的市民带来很严重的生活和生产影响。在台风的袭击下,被风吹倒的车压住车主,海浪潮冲进居民的屋里,工地上十几层楼高的吊塔被吹倒。面对自...

  • 120
    遗传算法帮你“打飞机”...不...躲飞机

    Abstract 由于鄙人一直跟导师一直做演化算法的研究,我主要是做遗传算法,但学艺未精,现在还没有任何学术成就,实在丢人。很多人都认为演化算法没有任何工程上面的作用,这岂不...

  • 120
    Android制造 FaceID [FaceNet + MobileNet]

    1. Abstract 好久没有在简书上写文章,最近在弄关于人脸识别的内容和研读一些论文。碰巧Apple的新iPhone X搭配了Face ID进行刷脸,我有一个想法,给An...

个人介绍
「山外还有山比山高,人外还有人忘不掉。」