您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. IKAnalyzer2012_u6

  2. 资源包中包含 1、《IKAnalyzer中文分词器V2012使用手册》 2、IKAnalyzer2012.jar(主jar包) 3、IKAnalyzer.cfg.xml(分词器扩展配置文件) 4、stopword.dic(停止词典) 5、LICENSE.TXT;NOTICE.TXT(版权声明)
  3. 所属分类:Java

    • 发布日期:2014-11-21
    • 文件大小:2mb
    • 提供者:njustgirl
  1. 使用IK Analyzer实现中文分词之Java实现(包含所有工具包)

  2. 1、lucene-core-3.6.0.jar 2、IKAnalyzer2012.jar(主jar包) 3、IKAnalyzer.cfg.xml(分词器扩展配置文件) 4、stopword.dic(停止词典) 5、IkSegmentation.java(样例类)
  3. 所属分类:Java

    • 发布日期:2015-03-30
    • 文件大小:3mb
    • 提供者:luozhipeng2011
  1. 使用IK Analyzer实现中文分词之Java实现

  2. 1、lucene-core-3.6.0.jar 2、IKAnalyzer2012.jar(主jar包) 3、IKAnalyzer.cfg.xml(分词器扩展配置文件) 4、stopword.dic(停止词典) 5.IkSegmentation.java(示例代码)
  3. 所属分类:Java

    • 发布日期:2015-03-30
    • 文件大小:3mb
    • 提供者:luozhipeng2011
  1. Lucene.Net+盘古分词Demo

  2. Lucene.Net+盘古分词是一个常见的中文信息检索组合。但是随着盘古分词停止更新,与Lucene.Net3.0无法兼容。为了使得大家少走弯路,本人利用Lucene.Net2.9+盘古分词2.3搭建了一个Demo
  3. 所属分类:C#

    • 发布日期:2016-11-13
    • 文件大小:18mb
    • 提供者:fps189
  1. 常用中文停用词

  2. 常用的中文停用词,停止词,stopword
  3. 所属分类:Python

    • 发布日期:2017-05-08
    • 文件大小:20kb
    • 提供者:suibianshen2012
  1. chineseStopWords.txt

  2. 在中文网站里面其实也存在大量的stop word。比如,我们前面这句话,“在”、“里面”、“也”、“的”、“它”、“为”这些词都是停止词。这些词因为使用频率过高,几乎每个网页上都存在,所以搜索引擎开发人员都将这一类词语全部忽略掉。
  3. 所属分类:Python

    • 发布日期:2017-08-20
    • 文件大小:3kb
    • 提供者:longai1567
  1. 易搜索站内全文检索搜索引擎

  2. 导航的根源在于分类,当有100条信息的时候,我们使用类别来定位信息,当有10000条信息的时候,我们用标签来定位信息,当有100..00条信息的时候,无论怎么分类都是难以寻找的,于是就有了搜索… 当一个网站信息越积越多,搜索将会变得越来越重要。以至于终于有一天,当网站发现50%以上的用户来到你的网站第一件事是搜索的时候,搜索就将成为没有“导航”的导航。因此站内搜索成了网站建设的当务之急。随着网络应用的深入,信息量的爆炸性增长,站内搜索成为每个优秀网站必须具备的功能。纵观中国大中小网站,绝大多数
  3. 所属分类:其它

    • 发布日期:2008-12-27
    • 文件大小:223kb
    • 提供者:redmethod
  1. stopwords.txt

  2. 简体中文的过滤词,停止词。过滤掉大量的却无实际含义的词组,补充版
  3. 所属分类:Python

    • 发布日期:2018-04-19
    • 文件大小:20kb
    • 提供者:ll0926
  1. IKanalyzer约2000个常用停止词库

  2. 近期整理的IKAnalyzer中文停用词列表,大约有2000多个词,希望可以帮到大家,下载希望给个好评,谢谢
  3. 所属分类:Java

    • 发布日期:2018-07-25
    • 文件大小:6kb
    • 提供者:tomakemyself
  1. 停用词表,基于tfidf获取中文文本关键词代码

  2. 代码主要实现分词并获取关键词,并附有停止词(文本分词时,删除停用词)
  3. 所属分类:机器学习

    • 发布日期:2018-01-17
    • 文件大小:7kb
    • 提供者:ymmxz
  1. 中文分词器工具包下载(配置+Jar包)

  2. IK配置+两个Jar包,实现与Solr 7.2.1版本的对接,对中文语句进行分词处理,可自行扩展词库字段ext.dict以及停止词字典dict
  3. 所属分类:Web开发

    • 发布日期:2018-02-06
    • 文件大小:1mb
    • 提供者:appleyk
  1. sphinx coreseek停止词

  2. sphinx coreseek 停止词 常用一些的停用词,避免大数据索引
  3. 所属分类:其它

    • 发布日期:2018-02-13
    • 文件大小:16kb
    • 提供者:zhy38191
  1. 分词中文停止词词典

  2. 分词 中文 停止词 词典 分词 中文 停止词 词典 分词 中文 停止词 词典 分词 中文 停止词 词典
  3. 所属分类:机器学习

    • 发布日期:2018-02-25
    • 文件大小:13kb
    • 提供者:q97012791
  1. 中文 停止词 stopwords

  2. 中文 停止词 stopwords 中文 停止词 stopwords 中文 停止词 stopwords
  3. 所属分类:其它

    • 发布日期:2018-02-28
    • 文件大小:15kb
    • 提供者:anyao112233
  1. 中文停止词库

  2. 特整理中文停止词如下,方便开发。中文文本分词中先参考了官方给出的示例,官方给出的示例主要是对一条文本进行全分词和精确分词。
  3. 所属分类:Python

    • 发布日期:2018-12-25
    • 文件大小:15kb
    • 提供者:qq_22821275
  1. Sorl8 所需要 ik-analyzer jar包以及配置文件和中文字典

  2. Sorl8版本 所需要 ik-analyzer jar包以及配置文件和中文字典 , 包括如下文件 ik-analyzer最新包:ik-analyzer-7.7.1.jar ik-analyzer配置文件:IKAnalyzer.cfg.xml 扩展字典:hotword.dic 扩展停止词字典:stopword.dic
  3. 所属分类:Java

    • 发布日期:2019-03-27
    • 文件大小:10mb
    • 提供者:qq_14940627
  1. 最全中文停用词表-百度、哈工大、四川大学机器智能实验室.zip

  2. 最全中文分词停止词词库-百度、哈工大、川大等集合,覆盖常用的所有的停用词词表,可以根据需要拿走
  3. 所属分类:机器学习

  1. 搜索引擎无用词 停用词 stopWord.xlsx

  2. 搜索引擎开发中有一类词叫停止词,是由英文单词:stopword翻译过来的,原来在英语里面会遇到很多a,the,or等使用频率很多的字或词,常为冠词、介词、副词或连词等。如果搜索引擎要将这些词都索引的话,那么几乎每个网站都会被索引,也就是说工作量巨大。可以毫不夸张的说句,只要是个英文网站都会用到a或者是the。那么这些英文的词跟我们中文有什么关系呢? 在中文网站里面其实也存在大量的stopword,我们称它为停止词。比如,我们前面这句话,“在”、“里面”、“也”、“的”、“它”、“为”这些词都是停
  3. 所属分类:其它

    • 发布日期:2020-02-13
    • 文件大小:25kb
    • 提供者:qq_16454809
  1. 中文停止词列表

  2. 中文停止词列表,包含常用的停止词。编码为UTF-8
  3. 所属分类:教育

    • 发布日期:2013-07-01
    • 文件大小:10kb
    • 提供者:jameshaper
  1. C#分词公共类完整版

  2. C#分词技术公共的api类,C#分词公共类完整版:数据缓存函数,读取文本,写入文本,载入词典,判断字符串是否在制定字符数组中,检测中文字符,格式化字符串,得到分词结果,移除停止词等等方法
  3. 所属分类:C#

    • 发布日期:2020-10-09
    • 文件大小:16kb
    • 提供者:oPinBoFenDou
« 12 3 »