您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Lucene中文分词器包

  2. 来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器。1. 正向全切分算法,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP)2. 对数量词、地名、路名的优化处理3. 对未知词汇采用自识别结合二元切分算法,确保搜索召回率(使用方法请参考IKAnalyzer V1.1版)
  3. 所属分类:其它

    • 发布日期:2007-08-14
    • 文件大小:853kb
    • 提供者:linliangyi2006
  1. Lucene中文分词器包

  2. 此分词器包用于搜索引擎中文分词,与Lucene搜索引擎框架搭配使用。
  3. 所属分类:Java

    • 发布日期:2009-05-13
    • 文件大小:853kb
    • 提供者:Simonright
  1. 中文分词包ictclas4j

  2. 中文分词包ictclas4j 中文分词包ictclas4j
  3. 所属分类:Java

    • 发布日期:2009-06-24
    • 文件大小:2mb
    • 提供者:buaacjl
  1. IKAnalyzer 3.0 中文分词器

  2. 1.IKAnalyzer3.0介绍 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer 已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0 则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 1.2IKAnalyzer3.0特性 * 采用了特有的“正向迭代最细粒度切分
  3. 所属分类:其它

    • 发布日期:2009-07-21
    • 文件大小:1mb
    • 提供者:linliangyi2006
  1. 庖丁中文分词包 有案例和介绍

  2. 庖丁中文分词包 有案例和介绍 庖丁中文分词包 有案例和介绍 庖丁中文分词包 有案例和介绍
  3. 所属分类:Java

    • 发布日期:2010-03-16
    • 文件大小:5mb
    • 提供者:kwenge
  1. 中科院的中文分词包ictclas4j.zip

  2. 中科院的中文分词包ictclas4j.zip 中科院的中文分词包ictclas4j.zip 中科院的中文分词包ictclas4j.zip 中科院的中文分词包ictclas4j.zip
  3. 所属分类:Java

    • 发布日期:2010-03-16
    • 文件大小:2mb
    • 提供者:kwenge
  1. IKAnalyzer IK分词包

  2. IKAnalyzer IK中文分词包 IKAnalyzer IK中文分词包
  3. 所属分类:Java

    • 发布日期:2010-05-14
    • 文件大小:836kb
    • 提供者:zxc2zxc120
  1. JE-Analysis中文分词

  2. 最流行、使用最方便的中文分词包,此资源为文件系统而非jar包,使用时Eclipse使用文件导入方式导入,其他编辑器视情况而定,用些编辑器支持将资源复制进工程。实在不行可以将解压后的指明路径或解压至java文件同一目录下。
  3. 所属分类:Java

    • 发布日期:2008-08-02
    • 文件大小:880kb
    • 提供者:danblue
  1. 中文分词包

  2. 采用MMseg算法实现的中文分词器,特色是是使用搜狗词库
  3. 所属分类:Java

    • 发布日期:2012-12-26
    • 文件大小:2mb
    • 提供者:lee_xiong
  1. IKAnalyzer中文分词包

  2. 我在博客中使用的中文分词包,大家也可以去官网上取下
  3. 所属分类:Android

    • 发布日期:2013-07-08
    • 文件大小:4mb
    • 提供者:u010370871
  1. ElasticSearch使用的ik中文分词包

  2. ElasticSearch使用的ik中文分词包 jar包
  3. 所属分类:Java

    • 发布日期:2015-03-01
    • 文件大小:43kb
    • 提供者:xxx0624
  1. ik中文分词包

  2. ik中文分词包,95%的精确,包含30万词典
  3. 所属分类:Java

    • 发布日期:2015-04-09
    • 文件大小:1mb
    • 提供者:chentoney
  1. IKAnalyzer2012中文分词包

  2. 强大的中文分词软件工具,每秒百万分词量,支持Lucene4
  3. 所属分类:Java

    • 发布日期:2016-04-15
    • 文件大小:2mb
    • 提供者:baidu_26239887
  1. solr6.3/lucene 6.3 ik-analyzer 中文分词

  2. solr6.3/lucene 6.3 ik-analyzer 中文分词包及demo、文档
  3. 所属分类:Java

    • 发布日期:2016-12-05
    • 文件大小:16mb
    • 提供者:love_tz
  1. Coreseek LibMMSeg中文分词包 mmseg-3.2.14.tar

  2. LibMMSeg 是Coreseek.com为 Sphinx 全文搜索引擎设计的中文分词软件包,其在GPL协议下发行的中文分词法,采用Chih-Hao Tsai的MMSEG算法。
  3. 所属分类:互联网

    • 发布日期:2017-03-30
    • 文件大小:5mb
    • 提供者:cjq1126247054
  1. IK中文分词包

  2. sorl5对应的IK 中文分词包,至于适用于那个具体版本,至少我在5.2.1版本下测试通过,其他版本还未测试
  3. 所属分类:Java

    • 发布日期:2017-04-14
    • 文件大小:1mb
    • 提供者:zhaocuit
  1. 中文分词包——ictclas4j_0.9.1.jar

  2. 基于Lucene的中文分词包,ictclas4j的最新发布,已经打包成jar包。
  3. 所属分类:Java

    • 发布日期:2009-03-03
    • 文件大小:109kb
    • 提供者:u011022568
  1. 基于Python的jieba中文分词包的安装-附件资源

  2. 基于Python的jieba中文分词包的安装-附件资源
  3. 所属分类:互联网

    • 发布日期:2021-03-05
    • 文件大小:106byte
    • 提供者:weixin_42184548
  1. 基于Python的jieba中文分词包的安装-附件资源

  2. 基于Python的jieba中文分词包的安装-附件资源
  3. 所属分类:互联网

    • 发布日期:2021-03-02
    • 文件大小:23byte
    • 提供者:weixin_42196667
  1. segmentit:任何JS环境可用的中文分词包,来自leizongminnode-segment的叉子-源码

  2. 中文分词模块 本模块基于魔改,增加了电子,浏览器支持,并准备针对电子多线程运行环境进行优化。 之所以要花时间魔改,是因为segment和nodejieba虽然在节点环境下很好用,但根本无法在浏览器和电子环境下运行。我把代码插入为ES2015,并用babel插件内联了字典文件,全部加载的话大小是3.8M,但如果有些字典你并不需要,字典和模块是支持tree shake的(请使用ESM模块)。 用法 import { Segment , useDefault } from 'segmentit' ;
  3. 所属分类:其它

« 12 3 4 5 6 7 8 9 10 ... 24 »