您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. lucene分词测试代码

  2. 用java写的图形分词测试的小东西,用的分词器是:来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器,其使用“正向全切分算法”,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP),对数量词、地名、路名的优化处理,对未知词汇采用自识别结合二元切分算法,确保搜索召回率。但是没有源代码下载,只能联系作者索要。
  3. 所属分类:其它

    • 发布日期:2007-11-21
    • 文件大小:2mb
    • 提供者:robinfoxnan
  1. 中文分词 核心代码 java

  2. 完整的还没写完,希望最后可以编译通过,加油 嘿嘿
  3. 所属分类:Java

    • 发布日期:2010-04-21
    • 文件大小:923byte
    • 提供者:chinahongfu
  1. 中文分词java源代码

  2. 中文分词源代码,值得仔细研究研究,对自然语言处理、搜索引擎等有研究兴趣的大侠可以看一看
  3. 所属分类:Java

    • 发布日期:2010-05-25
    • 文件大小:1mb
    • 提供者:iloveinweb
  1. java 实现的中文分词算法(代码)

  2. java 实现的基于FMM BMM算法的,中文分词算法(代码)
  3. 所属分类:Java

    • 发布日期:2011-04-14
    • 文件大小:3mb
    • 提供者:strong8808
  1. 中科院分词java代码

  2. 中科院分词算法为目前针对中文文本分词效果最佳的算法,为聚类算法提供了良好的数据源
  3. 所属分类:其它

    • 发布日期:2012-04-13
    • 文件大小:8mb
    • 提供者:bishenghua3
  1. 中文分词部分代码

  2. 中文分词已实现了1、一维线性表 2、首字Hash 3、双Hash 三种词典的存储结构与表现形式。 首先来看一下词典结构的接口Interface: java 代码
  3. 所属分类:Java

    • 发布日期:2012-08-21
    • 文件大小:4kb
    • 提供者:lq1121028216
  1. 中文分词 java代码

  2. 中文分词 java代码
  3. 所属分类:Java

    • 发布日期:2012-10-23
    • 文件大小:382kb
    • 提供者:turbocasa
  1. 带词性中文分词_支持数据挖掘

  2. Java语言开发带词性的中文分词,支持快速启动模式,最准确模式和数据挖掘模式,另外需要一个util.jar工具包,在我共享资源里有下载,程序代码本人未能严格考虑其性能,但现在改进后感觉还算满意,如果下载使用者觉得需要改进则自行改进,源代码在jar包内,敬请大家指教,方便的话可以email联系。
  3. 所属分类:Java

    • 发布日期:2008-08-25
    • 文件大小:1mb
    • 提供者:zhima_2008
  1. 中文分词服务器3.3

  2. 软件名称:百万商业圈简易中文分词服务器 作者:百万商业圈 版本:3.2(目前最新单线程服务器版,支持并发) 具体使用时可将 bwsyq.com.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:bwsyq fenci service and serve 0.1 (百万商业圈中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时
  3. 所属分类:其它

    • 发布日期:2013-09-02
    • 文件大小:6mb
    • 提供者:yefengying
  1. 使用IK Analyzer实现中文分词之Java实现

  2. 1、lucene-core-3.6.0.jar 2、IKAnalyzer2012.jar(主jar包) 3、IKAnalyzer.cfg.xml(分词器扩展配置文件) 4、stopword.dic(停止词典) 5.IkSegmentation.java(示例代码)
  3. 所属分类:Java

    • 发布日期:2015-03-30
    • 文件大小:3mb
    • 提供者:luozhipeng2011
  1. 中文分词java程序

  2. 中文分词源代码,值得仔细研究研究,对自然语言处理、搜索引擎等有研究兴趣的可以看一看。
  3. 所属分类:Java

    • 发布日期:2017-03-21
    • 文件大小:1mb
    • 提供者:qinzhenhua100
  1. 藏拙简易中文分词服务器源代码及词库

  2. 软件名称:藏拙简易中文分词服务器 作者:藏拙 具体使用时可将 cangzhuo.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:cangzhuo fenci service and serve 0.1 (藏拙中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时又还是一个Scoket server 通信端口是 888. 分词
  3. 所属分类:Web开发

    • 发布日期:2009-02-18
    • 文件大小:1mb
    • 提供者:u012960424
  1. 中文分词服务器源代码及词库

  2. 软件名称:藏拙简易中文分词服务器 作者:藏拙 具体使用时可将 cangzhuo.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:cangzhuo fenci service and serve 0.1 (藏拙中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时又还是一个Scoket server 通信端口是 888. 分词
  3. 所属分类:Web开发

    • 发布日期:2009-02-18
    • 文件大小:1mb
    • 提供者:xuying198702
  1. 中文分词服务器源代码及词库

  2. 软件名称:藏拙简易中文分词服务器 作者:藏拙 具体使用时可将 cangzhuo.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:cangzhuo fenci service and serve 0.1 (藏拙中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时又还是一个Scoket server 通信端口是 888. 分词
  3. 所属分类:Web开发

    • 发布日期:2009-02-18
    • 文件大小:1mb
    • 提供者:mysqlyao
  1. 中文分词mapreduce程序

  2. 对中文进行分词的java代码,分别在map reduce中实现。
  3. 所属分类:Java

    • 发布日期:2018-03-07
    • 文件大小:1mb
    • 提供者:yerrow_dark
  1. 中文分词学习版

  2. 此为学习版,请勿用于商业用途或扩散。 以下描述转至互联网。 ============== 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自
  3. 所属分类:机器学习

  1. IKAnalyzer中文分词.rar

  2. IK Analyzer是什么呢,就是我们需要的这个工具,是基于java开发的轻量级的中文分词工具包。它是以开源项目Luence为主体的,结合词典分词和文法分析算法的中文分词组件。 IKAnalyzer继承Lucene的Analyzer抽象类,使用IKAnalyzer和Lucene自带的分析器方法一样,将Analyzer测试代码改为IKAnalyzer测试中文分词效果。 如果使用中文分词器ik-analyzer,就需要在索引和搜索程序中使用一致的分词器:IK-analyzer。
  3. 所属分类:互联网

    • 发布日期:2020-06-06
    • 文件大小:1mb
    • 提供者:zhouth94
  1. 中文分词 java 代码

  2. 中文分词 java 代码
  3. 所属分类:Java

  1. java中文分词之正向最大匹配法实例代码

  2. 中文分词应用很广泛,网上也有很多开源项目,下面这篇文章主要给大家介绍了关于java中文分词之正向最大匹配法的相关资料,文中通过示例代码介绍的非常详细,需要的朋友可以参考借鉴,下面随着小编来一起学习学习吧。
  3. 所属分类:其它

    • 发布日期:2020-08-28
    • 文件大小:54kb
    • 提供者:weixin_38576811
  1. PHP中文分词的简单实现代码分享

  2. 当然, 本文不是要对中文搜索引擎做研究, 而是分享如果用 PHP 做一个站内搜索引擎。 本文是这个系统中的一篇。 我使用的分词工具是中科院计算所的开源版本的 ICTCLAS。 另外还有开源的 Bamboo, 我随后也会对该工具进行调研。 从 ICTCLAS 出发是个不错的选择, 因为其算法传播比较广泛, 有公开的学术文档, 并且编译简单, 库依赖少。 但目前只提供了 C/C++, Java 和 C# 版本的代码, 并没有 PHP 版本的代码。 怎么办呢? 也许可以学习它的 C/C++ 源码和学术
  3. 所属分类:其它

    • 发布日期:2020-12-18
    • 文件大小:53kb
    • 提供者:weixin_38550334
« 12 3 »