您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. IKAnalyzer 3.0 中文分词器

  2. 1.IKAnalyzer3.0介绍 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer 已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0 则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 1.2IKAnalyzer3.0特性 * 采用了特有的“正向迭代最细粒度切分
  3. 所属分类:其它

    • 发布日期:2009-07-21
    • 文件大小:1048576
    • 提供者:linliangyi2006
  1. java 分词工具,IKAnalysis 用过都说好啊

  2. 很不错的分词工具,大家来看看java 分词工具,IKAnalysis 用过都说好啊
  3. 所属分类:Java

    • 发布日期:2010-03-20
    • 文件大小:1048576
    • 提供者:LoveSSH
  1. SharpICTCLAS分词系统

  2. 这是一个开源的分词系统工具,由中科院研发,相信对大家有帮助
  3. 所属分类:专业指导

  1. 好用的中文分词工具(java开发)

  2. 好用的中文分词工具,java版本,配置java环境,即可运行,开源
  3. 所属分类:Java

    • 发布日期:2010-06-21
    • 文件大小:3145728
    • 提供者:nywily
  1. IkAnalyzer分词工具

  2. IkAnalyzer3.2的jar包 IK Analyzer 是一个开源的,基于java 语言开发的轻量级的中文分词工具包。从2006 年12 月推出1.0 版开始, IKAnalyzer 已经推出了3 个大版本。最初,它是以开源项目 Luence 为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IK Analyzer 3.X 则发展为面向Java 的公用分词组件,独立于Lucene 项目,同时提供了对 Lucene 的默认优化实现。
  3. 所属分类:Java

    • 发布日期:2011-02-11
    • 文件大小:1048576
    • 提供者:ali_myself
  1. IKAnalyzer中文分词好帮手

  2. IK Analyzer 是一个开源的,基于java 语言开发的轻量级的中文分词工具包。从2006 年12 月推出1.0 版开始, IKAnalyzer 已经推出了3 个大版本。最初,它是以开源项目 Luence 为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IK Analyzer 3.0 则发展为面向Java 的公用分词组件,独立于Lucene 项目,同时提供了对 Lucene 的默认优化实现。
  3. 所属分类:Java

    • 发布日期:2011-06-20
    • 文件大小:495616
    • 提供者:zfding2
  1. IKAnlyzer中文分词

  2. IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出 了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为 面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。
  3. 所属分类:Java

    • 发布日期:2012-03-13
    • 文件大小:2097152
    • 提供者:mailjava
  1. IKAnalyzer最新版中文分词器以及使用手册

  2. IKAnalyzer是一个开源的,基于JAVA语音开发的轻量级的中文分词工具包。在2012版中,实现了简单的分词歧义排除算法,分词器从单纯的的词典分词向模拟语义衍化。在普通PC环境测试,IKAnalyzer2012具有160万字/秒(3000kb/s)的高速处理能力。
  3. 所属分类:Web开发

    • 发布日期:2012-08-27
    • 文件大小:2097152
    • 提供者:jackchen123456
  1. IKAnalyzer分词手册中文

  2. IK Analyzer 是一个开源的,基于java 语言开发的轻量级的中文分词工具包。从2006 年12 月推出1.0 版开始, IKAnalyzer 已经推出了3 个大版本。最初,它是以开源项目 Luence 为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IK Analyzer 3.0 则发展为面向Java 的公用分词组件,独立于Lucene 项目,同时提供了对 Lucene 的默认优化实现。
  3. 所属分类:网络基础

    • 发布日期:2012-12-07
    • 文件大小:498688
    • 提供者:leannebb
  1. 开源分词工具 opennlp

  2. 开源分词工具OpenNLP库是一个基于机器学习的自然语言文本处理的开发工具包,它支持自然语言处理中一些共有的任务,例如:标记化、句子分割、词性标注、固有实体提取(指在句子中辨认出专有名词,例如:人名)、浅层分析(句字分块)、语法分析及指代。这些任务通常都需要较为先进的文字处理服务功能[1] [2]。
  3. 所属分类:Java

    • 发布日期:2013-04-15
    • 文件大小:3145728
    • 提供者:wskings
  1. Java Lucene IKAnalyzer 3.2.3stable_bin.rar IK分词器

  2. IK Analyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始, IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IK Analyzer 3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。
  3. 所属分类:Java

    • 发布日期:2014-06-05
    • 文件大小:1048576
    • 提供者:hongchongyuan
  1. 中文分词工具word-1.0,Java实现的中文分词组件多种基于词典的分词算法

  2. word分词是一个Java实现的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。 能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未登录词。 同时提供了Lucene、Solr、ElasticSearch插件。 分词使用方法: 1、快速体验 运行项目根目录下的脚本demo-word.bat可以快速体验分词效果 用法: command [text] [input] [output] 命令command的可选值为:demo、text、file
  3. 所属分类:Java

    • 发布日期:2014-11-05
    • 文件大小:10485760
    • 提供者:love_hachi
  1. IKAnalyzer中文分词器V2012_FF使用手册

  2. IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。
  3. 所属分类:Web开发

    • 发布日期:2015-05-28
    • 文件大小:841728
    • 提供者:liyang0410
  1. Jcseg汉语分词工具

  2. Jcseg是一个开源的汉语分词工具,由java语言开发,准确率高达百分之九十八,本程序无需配置,可以直接运行,谢谢!
  3. 所属分类:Java

    • 发布日期:2015-07-13
    • 文件大小:14680064
    • 提供者:liuzhixiong_521
  1. IK分词器,中文检索最好的分词器

  2. IK Analyzer 是一个开源的,基亍 java 语言开发的轻量级的中文分词工具包。从 2006 年 12 月推出 1.0 版开始, IKAnalyzer 已经推出了 4 个大版本。最初,它是以开源项目 Luence 为应用主体的,结合词典分词和文法分析算法的中文分词组件。从 3.0 版本开始, IK 发展为面向 Java 的公用分词组件,独立亍 Lucene 项目,同时提供了对 Lucene 的默认 优化实现。在 2012 版本中,IK 实现了简单的分词歧义排除算法,标志着 IK 分词器
  3. 所属分类:Java

    • 发布日期:2015-12-28
    • 文件大小:2097152
    • 提供者:javaxxs
  1. IK 分词器 jar 1.7

  2. IK Analyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始, IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IK Analyzer 3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。
  3. 所属分类:Java

    • 发布日期:2016-01-25
    • 文件大小:68608
    • 提供者:yangheqingvip
  1. 使用IK Analyzer实现中文分词之Java实现

  2. IK Analyzer 是一个开源的,基于 java 语言开发的轻量级的中文分词工具包。从 2006年 12 月推出 1.0 版开始, IKAnalyzer 已经推出了 4 个大版本。最初,它是以开源项目Luence 为应用主体的,结合词典分词和文法分析算法的中文分词组件。 从 3.0 版本开始,IK 发展为面向 Java 的公用分词组件,独立于 Lucene 项目,同时提供了对 Lucene 的默认优化实现。 在 2012 版本中,IK 实现了简单的分词歧义排除算法,标志着 IK 分词器从单
  3. 所属分类:Java

    • 发布日期:2017-03-29
    • 文件大小:3145728
    • 提供者:kurbanjanmemet
  1. lucene中文分词工具包

  2. IKAnalyzer 是一个开源的,基于java语言开发的轻量级的中文分词工具包,将一段文字进行IK分词处理一般经过:词典加载、预处理、分词器分词、歧义处理、善后结尾 五个部分
  3. 所属分类:Web开发

    • 发布日期:2018-05-10
    • 文件大小:1048576
    • 提供者:weixin_39268520
  1. pinyin-plus:简繁体汉字转拼音的项目,解决多音字的问题。ElasticSearch,solr的拼音分词工具-源码

  2. 拼音加 汉字转拼音的库,有如下特点 拼音数据基于 , 开放词库 基于拼音词库的数据初始化分词引擎进行分词,正确度高,解决多音字的问题 支持繁体字 支持自定义词库,词库格式同cc-cedict字典格式 api简单,分为普通模式,索引模式 使用场景 汉字转拼音,常用于索引引擎场景创建拼音的索引,这个场景的问题一般由两种实现路径,一种是直接使用带拼音的分词插件,会自动帮你创建出拼音的索引,还有一种就是自己将汉字转换为拼音字符串,采用间隔分隔分词来达到自定义化索引的目的。恰恰是实现路径,都离不开分词和拼
  3. 所属分类:其它

    • 发布日期:2021-03-03
    • 文件大小:3145728
    • 提供者:weixin_42128988
  1. 麻将:开源中文分词工具包,中文分词Web API,Lucene中文分词,中英文混合分词-源码

  2. 麻将中文分词 简介 麻将一直是广受欢迎的传统娱乐活动,字牌的组合千变万化。汉字的组合也是变化多端,麻将这个项目希望能从汉字组合中发现汉语的秘密,为自然语言处理提供好的中文分词工具。 麻将是基于Scala的语言实现的中文分词软件包。这个项目的核心是最大概率分词,整个项目专为搜索引擎,文本信息抽取和自然语言处理设计,参考我来实现。性能优异,速度快。整个分词包易于使用,测试覆盖率高。 在线展示 :链接 ,您可以自己测试它的功能。有任何问题,可以发邮件至: 。 分词歧义解决方案 分词的方法有很多,现
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:14680064
    • 提供者:weixin_42097533
« 12 3 4 5 6 7 8 »