您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 微软分布式机器学习工具包DMTK.zip

  2. DMTK 是微软分布式机器学习工具包。DMTK 包括以下几个项目:DMTK framework(Multiverso): 参数服务器架构的机器学习LightLDA: 用于大规模主题模型的可扩展、快速、轻量级系统.Distributed word embedding:文字嵌入分布式算法.Distributed skipgram mixture: 多义文字嵌入分布式算法DMTK (Dstributed Machine Learning Toolkit) 当前包括以下组件:DMTK分布式机器学习框架
  3. 所属分类:其它

  1. Sentiment-Analysis-with-Convolutional-Networks, IMDB电影评论情感分析的卷积神经网络模型.zip

  2. Sentiment-Analysis-with-Convolutional-Networks, IMDB电影评论情感分析的卷积神经网络模型 基于卷积网络的情感分析这是我向 Kaggle公司提交的一份提交给的电子邮件。算法基于前训练的word2vec嵌入和由Yoon提出的卷积网络的思想。代码由两个IPython笔记本电脑组成:进程Kaggle数据集 train test
  3. 所属分类:其它

  1. word2vec, Google word2vec的python 接口.zip

  2. word2vec, Google word2vec的python 接口 word2vec Google word2vec的python 接口。使用原始的C 进行训练,其他功能是纯 python numpy 。安装我推荐 Anaconda python 发行版。pip install wo
  3. 所属分类:其它

    • 发布日期:2019-09-18
    • 文件大小:82kb
    • 提供者:weixin_38743481
  1. 数据集demo-word.sh.zip

  2. google-code的word2vec训练工具配套数据,demo-word.sh
  3. 所属分类:深度学习

    • 发布日期:2019-09-19
    • 文件大小:29mb
    • 提供者:cymy001
  1. sent-conv-torch, 基于卷积神经网络的文本分类.zip

  2. sent-conv-torch, 基于卷积神经网络的文本分类 在中的语句卷积码代码在 Torch 中实现了 Kim ( 2014 ) 语句卷积代码。 它复制现有数据集的结果,并允许对任意其他文本数据集的模型进行训练。快速入门要以hdf5格式生成数据,请运行以下( 使用 word2vec. bin
  3. 所属分类:其它

  1. WORD2VEC.zip

  2. word2vec训练维基中文语料的三个文件,process.py为处理维基中文保存为wiki.zh.text,然后用opencc把繁体化为简体中文wiki.zh.text.jian.txt,然后用fenci_model.py进行分词生成wiki.zh.seg.text.jian.txt,最后用train_word2vec_model.py进行训练
  3. 所属分类:机器学习

    • 发布日期:2020-04-14
    • 文件大小:3kb
    • 提供者:SS51SS
  1. word2vec-google-news-300.zip.010

  2. Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将压缩包分成了10个部分。
  3. 所属分类:深度学习

    • 发布日期:2020-05-30
    • 文件大小:43mb
    • 提供者:qq_42067550
  1. word2vec-google-news-300.zip.009

  2. Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将压缩包分成了10个部分。
  3. 所属分类:深度学习

    • 发布日期:2020-05-30
    • 文件大小:180mb
    • 提供者:qq_42067550
  1. word2vec-google-news-300.zip.008

  2. Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将压缩包分成了10个部分。
  3. 所属分类:深度学习

    • 发布日期:2020-05-30
    • 文件大小:180mb
    • 提供者:qq_42067550
  1. word2vec-google-news-300.zip.007

  2. Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将压缩包分成了10个部分。
  3. 所属分类:深度学习

    • 发布日期:2020-05-30
    • 文件大小:180mb
    • 提供者:qq_42067550
  1. word2vec-google-news-300.zip.006

  2. Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将压缩包分成了10个部分。
  3. 所属分类:深度学习

    • 发布日期:2020-05-30
    • 文件大小:180mb
    • 提供者:qq_42067550
  1. word2vec-google-news-300.zip.005

  2. Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将压缩包分成了10个部分。
  3. 所属分类:深度学习

    • 发布日期:2020-05-30
    • 文件大小:180mb
    • 提供者:qq_42067550
  1. word2vec-google-news-300.zip.004

  2. Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将压缩包分成了10个部分。
  3. 所属分类:深度学习

    • 发布日期:2020-05-30
    • 文件大小:180mb
    • 提供者:qq_42067550
  1. word2vec-google-news-300.zip.003

  2. Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将压缩包分成了10个部分。
  3. 所属分类:深度学习

    • 发布日期:2020-05-30
    • 文件大小:180mb
    • 提供者:qq_42067550
  1. word2vec-google-news-300.zip.002

  2. Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将压缩包分成了10个部分。
  3. 所属分类:深度学习

    • 发布日期:2020-05-30
    • 文件大小:180mb
    • 提供者:qq_42067550
  1. word2vec-google-news-300.zip.001

  2. Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将压缩包分成了10个部分。
  3. 所属分类:深度学习

    • 发布日期:2020-05-30
    • 文件大小:180mb
    • 提供者:qq_42067550
  1. word2Vec训练.zip

  2. 词向量训练,实现了Distributed Representations of Words and Phrases and their Compositionality这篇论文
  3. 所属分类:互联网

    • 发布日期:2020-07-03
    • 文件大小:10mb
    • 提供者:weixin_38616018
  1. nlp_project.zip

  2. 基于Word2Vec的词向量空间模型,包括对文本预料的预处理,去停用词,分词以及训练等,可以基于语料查询词汇相似度,对词向量进行降维显示。
  3. 所属分类:机器学习

    • 发布日期:2020-10-25
    • 文件大小:8kb
    • 提供者:qq_45194222
  1. Sentiment-Analysis-Chinese-pytorch-master.zip

  2. 本项目使用了word2vec的中文预训练向量 模型分别有BiLSTM-attention和普通的LSTM两种 1、在Config中配置相关参数 2、然后运行DataProcess.py,生成相应的word2id,word2vec等文件 3、运行主函数main.py,得到训练好的模型,并保存模型 4、运行eval.py,读取模型,并得到评价 5、模型准确率平均85%左右
  3. 所属分类:Python

    • 发布日期:2020-12-03
    • 文件大小:119mb
    • 提供者:weixin_38411989
  1. word2vec-twitter:Word2Vec 400M Tweets基于https:www.fredericgodin.comsoftware的嵌入模型-源码

  2. Word2Vec_Twitter 关于 该存储库使用代码和, 。 此zip包含在Twitter数据上训练的word2vec模型,如以下所述: 戈丁,F.,Vandersmissen,B.,De Neve,W.,&Van de Walle,R.(2015)。 多媒体实验室 ACL W-NUT NER共享任务:使用分布式单词表示法为Twitter微博命名实体识别。 Anos用户生成的文本研讨会,ACL 2015。 免责声明 如果使用该模型,请引用本文。 该zip包含2个其他文件,可使用Pyth
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:18kb
    • 提供者:weixin_42113794
« 12 »