240 发简信
IP属地:广东
  • @政化天下 你好,请问你解决了加量数据进行继续训练办法吗?我运行的不可以,如果你解决了麻烦把方法告诉我,谢啦

    268G+训练好的word2vec模型(中文词向量)

      从网上了解到,很多人缺少大语料训练的word2vec模型,在此分享下使用268G+语料训练好的word2vec模型。 训练语料: 百度百科800w+条,26G+ 搜狐新闻...

  • 你好,你上传到网盘的压缩数据有问题,解压过程中会出错,导致真正获取到的数据很少,可否重新上传或发给我一份,百度网盘账号:BenjiaminL,谢谢!

    搜狐新闻数据400w+

      在之前的闲聊对话语料中提到,爬取了400w+新闻语料训练word2vec,考虑到这个平台数据质量比较高, 但是爬取的时候又有频率限制、网页打开慢、甚至有时候需要多次访问才...

  • 120
    搜狐新闻数据400w+

      在之前的闲聊对话语料中提到,爬取了400w+新闻语料训练word2vec,考虑到这个平台数据质量比较高, 但是爬取的时候又有频率限制、网页打开慢、甚至有时候需要多次访问才...