您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. IKAnalyzer 3.0 中文分词器

  2. 1.IKAnalyzer3.0介绍 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer 已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0 则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 1.2IKAnalyzer3.0特性 * 采用了特有的“正向迭代最细粒度切分
  3. 所属分类:其它

    • 发布日期:2009-07-21
    • 文件大小:1048576
    • 提供者:linliangyi2006
  1. 中文分词PDF中文分词工具包

  2. 中文分词工具PDF中文分词工具包中文分词工具包中文分词工具包中文分词工具包中文分词工具包
  3. 所属分类:Java

    • 发布日期:2010-05-07
    • 文件大小:498688
    • 提供者:yan_ming801123
  1. IkAnalyzer分词工具

  2. IkAnalyzer3.2的jar包 IK Analyzer 是一个开源的,基于java 语言开发的轻量级的中文分词工具包。从2006 年12 月推出1.0 版开始, IKAnalyzer 已经推出了3 个大版本。最初,它是以开源项目 Luence 为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IK Analyzer 3.X 则发展为面向Java 的公用分词组件,独立于Lucene 项目,同时提供了对 Lucene 的默认优化实现。
  3. 所属分类:Java

    • 发布日期:2011-02-11
    • 文件大小:1048576
    • 提供者:ali_myself
  1. IKAnalyzer中文分词好帮手

  2. IK Analyzer 是一个开源的,基于java 语言开发的轻量级的中文分词工具包。从2006 年12 月推出1.0 版开始, IKAnalyzer 已经推出了3 个大版本。最初,它是以开源项目 Luence 为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IK Analyzer 3.0 则发展为面向Java 的公用分词组件,独立于Lucene 项目,同时提供了对 Lucene 的默认优化实现。
  3. 所属分类:Java

    • 发布日期:2011-06-20
    • 文件大小:495616
    • 提供者:zfding2
  1. IKAnlyzer中文分词

  2. IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出 了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为 面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。
  3. 所属分类:Java

    • 发布日期:2012-03-13
    • 文件大小:2097152
    • 提供者:mailjava
  1. IKAnalyzer最新版中文分词器以及使用手册

  2. IKAnalyzer是一个开源的,基于JAVA语音开发的轻量级的中文分词工具包。在2012版中,实现了简单的分词歧义排除算法,分词器从单纯的的词典分词向模拟语义衍化。在普通PC环境测试,IKAnalyzer2012具有160万字/秒(3000kb/s)的高速处理能力。
  3. 所属分类:Web开发

    • 发布日期:2012-08-27
    • 文件大小:2097152
    • 提供者:jackchen123456
  1. 庖丁中文分词

  2. 庖丁中文分词JAR包及使用说明. 用于对中文文章进行分词。基于lucene的中文分词工具。
  3. 所属分类:Java

    • 发布日期:2013-11-18
    • 文件大小:3145728
    • 提供者:jiaopihai
  1. CSW中文分词工具包

  2. CSW分词,比较好用的分词工作,JAVA、C接口
  3. 所属分类:C

    • 发布日期:2008-10-24
    • 文件大小:3145728
    • 提供者:zhangyq2007
  1. IKAnalyzer中文分词器V2012_FF使用手册

  2. IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。
  3. 所属分类:Web开发

    • 发布日期:2015-05-28
    • 文件大小:841728
    • 提供者:liyang0410
  1. 中文分词工具包.zip

  2. 中文分词工具包.zip
  3. 所属分类:Java

    • 发布日期:2015-09-08
    • 文件大小:2097152
    • 提供者:sinat_15906013
  1. 使用IK Analyzer实现中文分词之Java实现

  2. IK Analyzer 是一个开源的,基于 java 语言开发的轻量级的中文分词工具包。从 2006年 12 月推出 1.0 版开始, IKAnalyzer 已经推出了 4 个大版本。最初,它是以开源项目Luence 为应用主体的,结合词典分词和文法分析算法的中文分词组件。 从 3.0 版本开始,IK 发展为面向 Java 的公用分词组件,独立于 Lucene 项目,同时提供了对 Lucene 的默认优化实现。 在 2012 版本中,IK 实现了简单的分词歧义排除算法,标志着 IK 分词器从单
  3. 所属分类:Java

    • 发布日期:2017-03-29
    • 文件大小:3145728
    • 提供者:kurbanjanmemet
  1. 中文分词工具类

  2. 最新中文分词工具jar包,使用方便,分词准确,中文分析的一个不错的包
  3. 所属分类:Java

    • 发布日期:2017-12-04
    • 文件大小:22020096
    • 提供者:forsaken_sss
  1. lucene中文分词工具包

  2. IKAnalyzer 是一个开源的,基于java语言开发的轻量级的中文分词工具包,将一段文字进行IK分词处理一般经过:词典加载、预处理、分词器分词、歧义处理、善后结尾 五个部分
  3. 所属分类:Web开发

    • 发布日期:2018-05-10
    • 文件大小:1048576
    • 提供者:weixin_39268520
  1. IK Analyzer中文分词器

  2. IK Analyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。
  3. 所属分类:Java

    • 发布日期:2018-06-05
    • 文件大小:2097152
    • 提供者:qq_37725650
  1. 中文分词器

  2. IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。可用于solr和Lucene
  3. 所属分类:Java

    • 发布日期:2018-10-16
    • 文件大小:2097152
    • 提供者:wang1171405487
  1. IK Analyzer 开源中文分词 2012 u6.zip

  2. IK Analyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始, IKAnalyzer已经推出了4个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。从3.0版本开 始,IK发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。在2012版本中,IK实现了简单的分词 歧义排除算法,标志着IK分词器从单纯的词典分词向模拟语义分词衍化。 IK Analyz
  3. 所属分类:其它

    • 发布日期:2019-07-06
    • 文件大小:2097152
    • 提供者:weixin_39840650
  1. IKAnalyzer中文分词.rar

  2. IK Analyzer是什么呢,就是我们需要的这个工具,是基于java开发的轻量级的中文分词工具包。它是以开源项目Luence为主体的,结合词典分词和文法分析算法的中文分词组件。 IKAnalyzer继承Lucene的Analyzer抽象类,使用IKAnalyzer和Lucene自带的分析器方法一样,将Analyzer测试代码改为IKAnalyzer测试中文分词效果。 如果使用中文分词器ik-analyzer,就需要在索引和搜索程序中使用一致的分词器:IK-analyzer。
  3. 所属分类:互联网

    • 发布日期:2020-06-06
    • 文件大小:1048576
    • 提供者:zhouth94
  1. analysis-ik中文分词器

  2. IK Analyzer是一个开源的,基于Java语言开发的轻量级的中文分词工具包; 最初,它是以开源项目Luence 为应用主体的,结合词典分词和文法分析算法的中文分词组件;从 3.0 版本开始,IK 发展为面向 Java 的公用分词组件,独立亍 Lucene 项目
  3. 所属分类:互联网

    • 发布日期:2020-06-30
    • 文件大小:4194304
    • 提供者:fdfd121231
  1. pkuseg-python:pkuseg多领域中文分词工具; 用于多域中文分词的pkuseg工具包-源码

  2. pkuseg:一个多领域中文分词工具包 pkuseg是基于论文[ ]的工具包。其简单易用,支持细分领域分词,有效提升了分词准确度。 目录 主要亮点 pkuseg具有如下几个特点: 多领域分词。以及以前的通用中文分词工具,此工具包同时致力于为不同领域的数据提供个性化的预训练模型。根据待分词文本的领域特点,用户可以自由地选择不同的模型。目前支持了新闻领域,网络领域,医药领域,旅游领域,以及混合领域的分词预训练模型。在使用中,如果用户明确待分词的领域,可加载对应的模型进行分词。如果用户无法确定具
  3. 所属分类:其它

    • 发布日期:2021-02-18
    • 文件大小:1048576
    • 提供者:weixin_42130786
  1. 麻将:开源中文分词工具包,中文分词Web API,Lucene中文分词,中英文混合分词-源码

  2. 麻将中文分词 简介 麻将一直是广受欢迎的传统娱乐活动,字牌的组合千变万化。汉字的组合也是变化多端,麻将这个项目希望能从汉字组合中发现汉语的秘密,为自然语言处理提供好的中文分词工具。 麻将是基于Scala的语言实现的中文分词软件包。这个项目的核心是最大概率分词,整个项目专为搜索引擎,文本信息抽取和自然语言处理设计,参考我来实现。性能优异,速度快。整个分词包易于使用,测试覆盖率高。 在线展示 :链接 ,您可以自己测试它的功能。有任何问题,可以发邮件至: 。 分词歧义解决方案 分词的方法有很多,现
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:14680064
    • 提供者:weixin_42097533
« 12 3 4 5 6 7 8 9 10 »