您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. solr6.0中IK分词需要的资料

  2. solr6.0中IK分词需要的资料 网络上好多不能用,分享一个能用的! 大家可以用, 我测试过了,很简单! 看对方的
  3. 所属分类:Java

    • 发布日期:2017-08-31
    • 文件大小:16777216
    • 提供者:dreamd1987
  1. elasticsearch[2.4.4]版本用ik分词器

  2. Elasticsearch默认提供的分词器,会把每个汉字分开,而不是我们想要的根据关键词来分词 Was designed for version [elasticsearch2.4.4] 为elasticsearch2.4.4提供的ik中文分词器插件
  3. 所属分类:Java

    • 发布日期:2017-09-13
    • 文件大小:4194304
    • 提供者:chen649053473
  1. 新版盘古代码+分词词库+分词工具

  2. 新版盘古代码+分词词库+分词工具 Pan Gu Segment is a library that can segment Chinese and English words from sentence. 盘古分词是一个中英文分词组件。作者eaglet 曾经开发过KTDictSeg 中文分词组件,拥有大量用户。 作者基于之前分词组件的开发经验,结合最新的开发技术重新编写了盘古分词组件。
  3. 所属分类:其它

    • 发布日期:2017-10-13
    • 文件大小:1048576
    • 提供者:baidu_34303629
  1. 庖丁解牛分词器

  2. 庖丁解牛分词器是基于lucene的中文分词系统的软件。对长度为96256中文分词: IK-Analyzer:203ms 55296 单词 272394词/秒 paoding:94ms 47104单词 501106词/秒 对长度为3008中文分词: IK-Analyzer:31ms 1728单词 55741词/秒 paoding:15ms 1472单词 98133词/秒
  3. 所属分类:Java

    • 发布日期:2017-10-19
    • 文件大小:5242880
    • 提供者:u014464624
  1. java版结巴分词工具

  2. java版结巴分词工具,一个很好的中文分词工具。直接用eclipse打开,输入是一篇文章,然后输出是每个词的词频,并且词频是按照大小从次数最高到次数最低排的,只需要在test包里改部分代码就可以使用了。 不下你会后悔的。
  3. 所属分类:Java

    • 发布日期:2017-11-29
    • 文件大小:3145728
    • 提供者:qq_33654685
  1. ~中文网页自动分类器~

  2. 利用knn算法实现了一个中文网页自动分类器, 包括网页预处理,ictclas中文分词,基于tf-idf的文本特征表示,基于df的特征选取和基于knn的分类算法,最后通过struts2框架web发布
  3. 所属分类:其它

    • 发布日期:2008-12-13
    • 文件大小:177152
    • 提供者:liuchuanfengok
  1. 织梦中文分词系统1.0

  2. 采用的是一种用最小切分和逆向最大匹配法结合的一种复合分词算法,目前对岐义识别还处于初步研究阶段。
  3. 所属分类:其它

    • 发布日期:2008-12-19
    • 文件大小:681984
    • 提供者:straul
  1. 基于分词的地址匹配技术

  2. 本文提出一种“基于分词的地址匹配技术”,它是通过构造一种分级地址库的方法,并转换成地址分词库,采用基于地址词典的中文分词技术,实现地址匹配。
  3. 所属分类:专业指导

    • 发布日期:2009-01-04
    • 文件大小:1048576
    • 提供者:gaomzh
  1. 由字构词—— 中文分词新方法

  2. 由字构词—— 中文分词新方法多个关键字请用空格分隔,最多填写5个。点击右侧Tag快速添加需要大于20个字符,不支持HTML标签。
  3. 所属分类:Web开发

    • 发布日期:2009-02-28
    • 文件大小:191488
    • 提供者:bloves_yougedi
  1. ICTCLAS(中文分词)学习笔记

  2. 中科院的分词系统ICTCLAS的学习笔记,代码注释,对于学习分词的来说绝对的有用
  3. 所属分类:专业指导

    • 发布日期:2009-03-29
    • 文件大小:533504
    • 提供者:luningbing044
  1. 拼音加加中文词库以及各行业扩充词库(txt中文分词字典)

  2. 拼音加加中文词库以及各行业扩充词库(txt中文分词字典)
  3. 所属分类:专业指导

    • 发布日期:2009-04-16
    • 文件大小:1048576
    • 提供者:u012092630
  1. 汉语分词系统

  2. 主要功能包括中文分词;词性标注;命名实体识别;用户词典功能;支持GBK编码、UTF8编码、BIG5编码。
  3. 所属分类:Java

    • 发布日期:2018-03-14
    • 文件大小:11534336
    • 提供者:u012088070
  1. 中文全文检索技术研究.pdf

  2. 中文全文检索技术研究 中文分词技术 中文检索 C++ 倒排
  3. 所属分类:C++

    • 发布日期:2018-03-16
    • 文件大小:1048576
    • 提供者:wxy341
  1. 中文分词java实现

  2. 所需要抽取的文本进行分词和词性的标注,将中文划分为独立存在的词, 并且辨别这些词的词性,将每一个词的词性标注在每一个词的后面。这样做可以方便我们对一些需要的词的抽取,并且能更加方便的进行词频统计。
  3. 所属分类:机器学习

    • 发布日期:2018-05-09
    • 文件大小:75497472
    • 提供者:qq_42175496
  1. solr7.3.1中文分词器

  2. solr7.3.1种需要的中文IK分词器,其中包括IK分词的jar和配置文件还有mmseg4j
  3. 所属分类:其它

    • 发布日期:2018-05-23
    • 文件大小:2097152
    • 提供者:apm800
  1. jcseg分词需要的jar

  2. jcseg是使用Java开发的一个开源的中文分词器,使用流行的mmseg算法实现。是一款独立的分词组件,不是针对lucene而开发,但是提供了最新版本的lucene和solr分词接口。jcseg目前最高版本jcseg目前最高版本jcseg目前最高版本jcseg目前最高版本jcseg是使用Java开发的一个开源的中文分词器,使用流行的mmseg算法实现。
  3. 所属分类:Android

    • 发布日期:2018-06-25
    • 文件大小:126976
    • 提供者:zhenzhengnu9282
  1. 分词所需要的jar文件

  2. jcseg是使用Java开发的一个开源的中文分词器,使用流行的mmseg算法实现。是一款独立的分词组件,不是针对lucene而开发,但是提供了最新版本的lucene和solr分词接口。
  3. 所属分类:Java

    • 发布日期:2018-06-25
    • 文件大小:7168
    • 提供者:zhenzhengnu9282
  1. 中文分词PHP代码

  2. PHP中文分词实例代码 基本功能: 根据词频词典较为智能的中文分词,支持规则识别人名、地区等。
  3. 所属分类:PHP

    • 发布日期:2018-07-03
    • 文件大小:6144
    • 提供者:lengxuedadou
  1. 千万级词库-Trigram

  2. 因工作需要,最近在做自然语言处理方面的研究,第一步需要实现中文分词,市面上有许多开源的分词组件,本人使用的是word分词,但这些开源组件中的词库都比较小,因此这段时间主要是在网上爬了各种词库,并通过XX词典校验,挑选在XX词典中收录的(耗费相当多的精力)。此份Trigram
  3. 所属分类:机器学习

    • 发布日期:2018-07-06
    • 文件大小:74448896
    • 提供者:qengland
  1. 百万级词库 - 同音异形词库

  2. 因工作需要,最近在做自然语言处理方面的研究,第一步需要实现中文分词,市面上有许多开源的分词组件,本人使用的是word分词,但这些开源组件中的词库都比较小,因此这段时间主要是在网上爬了各种词库,并通过XX词典校验,挑选在XX词典中收录的(耗费相当多的精力)。此份同音异形词库
  3. 所属分类:机器学习

    • 发布日期:2018-07-06
    • 文件大小:5242880
    • 提供者:qengland
« 1 2 ... 45 46 47 48 49 50»