您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. [云端包]Google 拼音输入法 v2.5.16.93

  2. 由谷歌(Google)出品的中文拼音输入法。其智能组句功能能聪明地理解您的意图,不论是简短会话聊天还是长篇文书撰写,您将告别以单词为基本单位的繁琐输入步骤。 谷歌拼音输入法五大特色: 1.智能输入:选词和组句准确率高,能聪明地理解您的意图,短句长句,随想随打。 2.时尚语汇:海量词库整合了互联网上的流行语汇和热门搜索词,提供快速更新机制,新词新句一网打尽。 3.个性定制:将使用习惯和个人字典同步在Google帐号,并可主动下载最符合用户习惯的语言模型。一个跟您走的个性化输入法。 4.丰富扩展:
  3. 所属分类:其它

    • 发布日期:2011-08-09
    • 文件大小:12mb
    • 提供者:downmy
  1. “视觉词包模型”演示(bag-of-visual words)

  2. 包括,PLSA、LDA等模型在词包模型下的演示及应用。
  3. 所属分类:其它

    • 发布日期:2012-06-02
    • 文件大小:31mb
    • 提供者:signfox
  1. 词性标注包(acopost-1.8.6)源代码阅读笔记

  2. acopost是Ingo Schroder于02年在德国汉堡大学完成的一个词性标注工具包。主要实现了基于实例、最大熵、2元隐马、基于转换规则等4种词性标注算法,以及评价和算法融合等。采用的语言是perl和c,代码比较短小,非常适于学习。 本笔记记录内容: o 对acopost所实现的每个算法的训练和标注的基本流程、函数调用关系、相关文献等做了记录和阐述; o 对每个算法相关的源文件进行了详细注释; o 以汉语分词为实例,记录了4个标注算法的训练和标注结果。 [acopost] http://a
  3. 所属分类:专业指导

    • 发布日期:2014-01-15
    • 文件大小:17mb
    • 提供者:yqzhao
  1. 视觉词袋bag of view word词袋模型BOVW

  2. 一个视觉词袋模型(bovw)的示例程序,用于给食物进行分类。C++实现。里面包含用作训练集和测试集的图片。源代码是linux系统下运行,所以需要额外下载dirent.h才能运行,已附在压缩包里面。经测试效果比较令人满意。由于附件大小限制,删除了project,需要自行建工程;删除了约一半的train图片,需要删除相应的training.txt中路径。借鉴思路,体会精神0.0
  3. 所属分类:C++

    • 发布日期:2016-01-12
    • 文件大小:53mb
    • 提供者:xxiaotouming
  1. 词袋模型BOVW

  2. 视觉词袋(bag of view word),一个视觉词袋模型(bovw)的示例程序,用于给食物进行分类。C++实现。里面包含用作训练集和测试集的图片。源代码是linux系统下运行,所以需要额外下载dirent.h才能运行,已附在压缩包里面。经测试效果比较令人满意。由于附件大小限制,删除了project,需要自行建工程;删除了约一半的train图片,需要删除相应的training.txt中路径。
  3. 所属分类:C++

    • 发布日期:2016-01-14
    • 文件大小:52mb
    • 提供者:dvsing
  1. SVM图像分类论文1

  2. SVM图像分类论文1:超像素词包模型与SVM分类的图像标注、多特征筛选与支持向量机相融合的图像分类模型等
  3. 所属分类:机器学习

  1. 主题模型Python工具包Gensim.zip

  2. Gensim是一个相当专业的主题模型Python工具包。在文本处理中,比如商品评论挖掘,有时需要了解每个评论分别和商品的描述之间的相似度,以此衡量评论的客观性。评论和商品描述的相似度越高,说明评论的用语比较官方,不带太多感*彩,比较注重描述商品的属性和特性,角度更客观。gensim就是  Python 里面计算文本相似度的程序包。示例代码:针对商品评论和商品描述之间的相似度,怎么使用gensim来计算?原理1、文本相似度计算的需求始于搜索引擎。搜索引擎需要计算“用户查询”和爬下来的众多”网页
  3. 所属分类:其它

    • 发布日期:2019-07-18
    • 文件大小:41mb
    • 提供者:weixin_39841848
  1. 北京交通大学视觉期末复习笔记.docx

  2. 计算机视觉期末复习笔记包括: (1)图像分割相关知识; (2)全局特征与局部特征 (3)图像分类; (4)目标匹配,目标检测; (5)词包模型; (6)卷积神经网络等等等;
  3. 所属分类:机器学习

    • 发布日期:2019-12-29
    • 文件大小:1mb
    • 提供者:Haienzi
  1. mitie.tar.gz 资源包

  2. mitie资源包,免费下载,mitie是在dlib机器学习库之上开发的NLP工具包,支持分布式词嵌入和结构化SVM,提供英语,西班牙语,德语的预训练语言模型。
  3. 所属分类:软件测试

    • 发布日期:2020-06-13
    • 文件大小:16mb
    • 提供者:qq_38796548
  1. HanLP中文分词所需内容_2.zip

  2. 主要包含HanLP中文分词需要的jar包,properties文件,data文件夹,以及一些测试代码。HanLP是由一系列模型与算法组成的Java工具包,目标是普及自然语言处理在生产环境中的应用。HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点。 在提供丰富功能的同时,HanLP内部模块坚持低耦合、模型坚持惰性加载、服务坚持静态提供、词典坚持明文发布,使用非常方便,同时自带一些语料处理工具,帮助用户训练自己的语料。
  3. 所属分类:Java

    • 发布日期:2020-06-29
    • 文件大小:655mb
    • 提供者:qq_36649744
  1. 中文分词处理工具包,很准的一款分词器

  2. 基于BiLSTM模型训练而成,包含词性标注,分词,实体识别等, 都准确率挺高的,用来做分词挺好的,调用简单无需配置一大堆东西,仅在linux Python3 环境测试通过,使用案例: import fool text = "两个傻子" print(fool.cut(text)) # ['两个', '傻子']
  3. 所属分类:Python

    • 发布日期:2020-07-23
    • 文件大小:58mb
    • 提供者:weixin_42332802
  1. python中文分词,使用结巴分词对python进行分词(实例讲解)

  2. 在采集美女站时,需要对关键词进行分词,最终采用的是python的结巴分词方法。 中文分词是中文文本处理的一个基础性工作,结巴分词利用进行中文分词。 其基本实现原理有三点: 1.基于Trie树结构实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图(DAG) 2.采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合 3.对于未登录词,采用了基于汉字成词能力的HMM模型,使用了Viterbi算法 安装(Linux环境) 下载工具包,解压后进入目录下,运行:python set
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:70kb
    • 提供者:weixin_38565631
  1. 用Python给文本创立向量空间模型的教程

  2. 我们需要开始思考如何将文本集合转化为可量化的东西。最简单的方法是考虑词频。 我将尽量尝试不使用NLTK和Scikits-Learn包。我们首先使用Python讲解一些基本概念。 基本词频 首先,我们回顾一下如何得到每篇文档中的词的个数:一个词频向量。   #examples taken from here: http://stackoverflow.com/a/1750187 mydoclist = ['Julie loves me more than Linda loves me', 'J
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:89kb
    • 提供者:weixin_38694674
  1. 《dna2vec》_MarkDown_生物计算

  2. =========================================================================== ''' 5.paper_ ''' 5.1.训练dna2vec模型: 1.把基因分割为长的非重叠dna片段 2.将长的dna片段转化为重叠的可变长度的k-mers 3.基于两层神经网络的聚合嵌入模型的无监督训练 4.用k-mer的长度分解聚合模型 5.2.wor
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:134kb
    • 提供者:weixin_38608688
  1. 话题跟踪中静态和动态话题模型的核捕捉衰减

  2. 话题跟踪是一项针对新闻话题进行相关信息识别、挖掘和自组织的研究课题,其关键问题之一是如何建立符合话题形态的统计模型.话题形态的研究涉及两个问题,其一是话题的结构特性,其二是话题变形.对比分析了现有词包式、层次树式和链式这3类主流话题模型的形态特征,尤其深入探讨了静态和动态话题模型拟合话题脉络的优势和劣势,并提出一种基于特征重叠比的核捕捉衰减评价策略,专门用于衡量静态和动态话题模型追踪话题发展趋势的能力.在此基础上,分别给出突发式增量式学习方法和时序事件链的更新算法,借以提高动态话题模型的核捕捉性
  3. 所属分类:其它

  1. nlp_windows_exe_ui:python3.6-制作一个包含NLP基本功能系统(Windows exe)自然语言处理系统。系统功能:分词,词性标注,关键词提取,文本分类-源码

  2. nlp_windows_exe_ui 介绍 python3.6-制作一个包含NLP基本功能系统(Windows exe)自然语言处理系统。系统功能:分词,词性标注,关键字提取,文本分类;由于要打包成exe的关系,我将原本的项目的多一个文件的集成到一个python文件(合并文件)里,只保留了使用该系统所需要的函数,方便打包,通俗地讲就是,生成生成词向量过程,装袋过程,模型训练过程的,以及一些中间步骤的程序代码,这些有些涉及很多库的,这些打包进去。但是整个项目里的东西是完整的(包括数据) 运行这个系
  3. 所属分类:其它

    • 发布日期:2021-03-15
    • 文件大小:20mb
    • 提供者:weixin_42129113
  1. sockeye-recipes2:Sockeye神经机器翻译(NMT)工具包v2的培训脚本和配方-源码

  2. sockeye-recipes2 Sockeye神经机器翻译(NMT)工具包的培训脚本和配方 最初的Sockeye代码库位于 。 此存储库基于 ,版本:2.3.10 在这里,我们重点介绍Sockeye v2。 此存储库与的旧版本类似但不完全向后兼容。 此存储库包含使运行和复制NMT实验变得容易的脚本。 所有模型超参数都记录在文件“ hyperparams.txt”中,该文件将传递到管道中的不同步骤: scr ipts / preprocess-bpe.sh:通过子词分段对bitext进行
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:27kb
    • 提供者:weixin_42134537
  1. hierNetGxE:开发该软件包以适应正则化回归模型,该模型称为hierNet GxE,用于基于层次化套索的基因-环境(GxE)交互作用的联合选择-源码

  2. hierNetGxE 开发该软件包以适应正则化回归模型,我们将其称为hierNetGxE,用于基于层次化套索的基因-环境(GxE)交互作用的联合选择[Bien等。 (2013)]。 该模型集中于单个环境暴露,并引发“交互之前的主要作用”层次结构。 与为基因-基因(GxG)交互案例设计的原始分层套索模型不同,GxE模型具有更简单的块可分离结构,从而使其适合大规模应用。 我们开发并实施了一种高效的拟合算法和筛选规则,可以高精度地丢弃大量不相关的预测变量。 hierNetGxE模型通过添加到目标函
  3. 所属分类:其它

  1. 中文分词数据集.zip

  2. 分词数据集,用于训练一个用来分词的模型。详细看压缩包里的内容。
  3. 所属分类:互联网

    • 发布日期:2021-02-28
    • 文件大小:91mb
    • 提供者:qq_42658739
  1. FoolNLTK:中国自然语言工具包-源码

  2. 傻瓜NLTK 中文文字处理工具包 特征 尽管不是最快的,但FoolNLTK可能是市场上最准确的开源中文分词器 根据训练 分词,词性标注,实体识别的高精度 用户定义的字典 自我训练模型的能力 允许批处理 入门 *** 2020/2/16 ***更新:使用伯特模型火车和出口模型进行部署, 要下载并构建FoolNLTK,请输入: get clone https://github.com/rockyzhengwu/FoolNLTK.git cd FoolNLTK/train 有关详细 仅在Linux
  3. 所属分类:其它

    • 发布日期:2021-02-23
    • 文件大小:58mb
    • 提供者:weixin_42138376
« 12 3 4 5 6 7 »