点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - word2Vec训练.zip
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
微软分布式机器学习工具包DMTK.zip
DMTK 是微软分布式机器学习工具包。DMTK 包括以下几个项目:DMTK framework(Multiverso): 参数服务器架构的机器学习LightLDA: 用于大规模主题模型的可扩展、快速、轻量级系统.Distributed word embedding:文字嵌入分布式算法.Distributed skipgram mixture: 多义文字嵌入分布式算法DMTK (Dstributed Machine Learning Toolkit) 当前包括以下组件:DMTK分布式机器学习框架
所属分类:
其它
发布日期:2019-07-19
文件大小:3kb
提供者:
weixin_39841882
Sentiment-Analysis-with-Convolutional-Networks, IMDB电影评论情感分析的卷积神经网络模型.zip
Sentiment-Analysis-with-Convolutional-Networks, IMDB电影评论情感分析的卷积神经网络模型 基于卷积网络的情感分析这是我向 Kaggle公司提交的一份提交给的电子邮件。算法基于前训练的word2vec嵌入和由Yoon提出的卷积网络的思想。代码由两个IPython笔记本电脑组成:进程Kaggle数据集 train test
所属分类:
其它
发布日期:2019-09-17
文件大小:6kb
提供者:
weixin_38744207
word2vec, Google word2vec的python 接口.zip
word2vec, Google word2vec的python 接口 word2vec Google word2vec的python 接口。使用原始的C 进行训练,其他功能是纯 python numpy 。安装我推荐 Anaconda python 发行版。pip install wo
所属分类:
其它
发布日期:2019-09-18
文件大小:82kb
提供者:
weixin_38743481
数据集demo-word.sh.zip
google-code的word2vec训练工具配套数据,demo-word.sh
所属分类:
深度学习
发布日期:2019-09-19
文件大小:29mb
提供者:
cymy001
sent-conv-torch, 基于卷积神经网络的文本分类.zip
sent-conv-torch, 基于卷积神经网络的文本分类 在中的语句卷积码代码在 Torch 中实现了 Kim ( 2014 ) 语句卷积代码。 它复制现有数据集的结果,并允许对任意其他文本数据集的模型进行训练。快速入门要以hdf5格式生成数据,请运行以下( 使用 word2vec. bin
所属分类:
其它
发布日期:2019-10-10
文件大小:5mb
提供者:
weixin_38744375
WORD2VEC.zip
word2vec训练维基中文语料的三个文件,process.py为处理维基中文保存为wiki.zh.text,然后用opencc把繁体化为简体中文wiki.zh.text.jian.txt,然后用fenci_model.py进行分词生成wiki.zh.seg.text.jian.txt,最后用train_word2vec_model.py进行训练
所属分类:
机器学习
发布日期:2020-04-14
文件大小:3kb
提供者:
SS51SS
word2vec-google-news-300.zip.010
Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将压缩包分成了10个部分。
所属分类:
深度学习
发布日期:2020-05-30
文件大小:43mb
提供者:
qq_42067550
word2vec-google-news-300.zip.009
Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将压缩包分成了10个部分。
所属分类:
深度学习
发布日期:2020-05-30
文件大小:180mb
提供者:
qq_42067550
word2vec-google-news-300.zip.008
Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将压缩包分成了10个部分。
所属分类:
深度学习
发布日期:2020-05-30
文件大小:180mb
提供者:
qq_42067550
word2vec-google-news-300.zip.007
Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将压缩包分成了10个部分。
所属分类:
深度学习
发布日期:2020-05-30
文件大小:180mb
提供者:
qq_42067550
word2vec-google-news-300.zip.006
Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将压缩包分成了10个部分。
所属分类:
深度学习
发布日期:2020-05-30
文件大小:180mb
提供者:
qq_42067550
word2vec-google-news-300.zip.005
Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将压缩包分成了10个部分。
所属分类:
深度学习
发布日期:2020-05-30
文件大小:180mb
提供者:
qq_42067550
word2vec-google-news-300.zip.004
Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将压缩包分成了10个部分。
所属分类:
深度学习
发布日期:2020-05-30
文件大小:180mb
提供者:
qq_42067550
word2vec-google-news-300.zip.003
Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将压缩包分成了10个部分。
所属分类:
深度学习
发布日期:2020-05-30
文件大小:180mb
提供者:
qq_42067550
word2vec-google-news-300.zip.002
Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将压缩包分成了10个部分。
所属分类:
深度学习
发布日期:2020-05-30
文件大小:180mb
提供者:
qq_42067550
word2vec-google-news-300.zip.001
Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将压缩包分成了10个部分。
所属分类:
深度学习
发布日期:2020-05-30
文件大小:180mb
提供者:
qq_42067550
word2Vec训练.zip
词向量训练,实现了Distributed Representations of Words and Phrases and their Compositionality这篇论文
所属分类:
互联网
发布日期:2020-07-03
文件大小:10mb
提供者:
weixin_38616018
nlp_project.zip
基于Word2Vec的词向量空间模型,包括对文本预料的预处理,去停用词,分词以及训练等,可以基于语料查询词汇相似度,对词向量进行降维显示。
所属分类:
机器学习
发布日期:2020-10-25
文件大小:8kb
提供者:
qq_45194222
Sentiment-Analysis-Chinese-pytorch-master.zip
本项目使用了word2vec的中文预训练向量 模型分别有BiLSTM-attention和普通的LSTM两种 1、在Config中配置相关参数 2、然后运行DataProcess.py,生成相应的word2id,word2vec等文件 3、运行主函数main.py,得到训练好的模型,并保存模型 4、运行eval.py,读取模型,并得到评价 5、模型准确率平均85%左右
所属分类:
Python
发布日期:2020-12-03
文件大小:119mb
提供者:
weixin_38411989
word2vec-twitter:Word2Vec 400M Tweets基于https:www.fredericgodin.comsoftware的嵌入模型-源码
Word2Vec_Twitter 关于 该存储库使用代码和, 。 此zip包含在Twitter数据上训练的word2vec模型,如以下所述: 戈丁,F.,Vandersmissen,B.,De Neve,W.,&Van de Walle,R.(2015)。 多媒体实验室 ACL W-NUT NER共享任务:使用分布式单词表示法为Twitter微博命名实体识别。 Anos用户生成的文本研讨会,ACL 2015。 免责声明 如果使用该模型,请引用本文。 该zip包含2个其他文件,可使用Pyth
所属分类:
其它
发布日期:2021-02-06
文件大小:18kb
提供者:
weixin_42113794
«
1
2
»