您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 庖丁解牛 中文分词工具

  2. Version 2.0.4–alpha2 通过 analyzer.bat 程序,可以输入中文文本,即时地查看分词效果。 Jar包在lib 文件夹中。 本人倡导零分资源共享,欢迎大家下载和评论。
  3. 所属分类:Java

    • 发布日期:2010-07-17
    • 文件大小:6mb
    • 提供者:cxb870427
  1. IK Analyzer 中文分词工具

  2. Version 3.2.0 包里面有使用手册。 使用时需要Lucene的一些包,请到本人上传Lucene包中下载http://download.csdn.net/source/2550590
  3. 所属分类:Java

    • 发布日期:2010-07-17
    • 文件大小:1mb
    • 提供者:cxb870427
  1. 中文分词工具-强烈推荐

  2. 比较实用,相同的东西别人10分下载,我2分,很仗义吧,哈哈哈。。。
  3. 所属分类:网页制作

    • 发布日期:2011-06-02
    • 文件大小:959kb
    • 提供者:friend1020
  1. segment.zip

  2. 中科院分词工具下载,中科院的分词工具准确率高,在多个方面都能有很好的运用!
  3. 所属分类:Java

    • 发布日期:2011-10-19
    • 文件大小:4kb
    • 提供者:longyifeixnjd
  1. 带词性中文分词_支持数据挖掘

  2. Java语言开发带词性的中文分词,支持快速启动模式,最准确模式和数据挖掘模式,另外需要一个util.jar工具包,在我共享资源里有下载,程序代码本人未能严格考虑其性能,但现在改进后感觉还算满意,如果下载使用者觉得需要改进则自行改进,源代码在jar包内,敬请大家指教,方便的话可以email联系。
  3. 所属分类:Java

    • 发布日期:2008-08-25
    • 文件大小:1mb
    • 提供者:zhima_2008
  1. IKAnalyzer和Lucene分词工具下载地址+使用方法

  2. 经过修改升级版的IKAnalyzer和Lucene分词工具下载地址,及使用配置方法,经过测试Java代码。
  3. 所属分类:Java

    • 发布日期:2013-03-29
    • 文件大小:27kb
    • 提供者:yutian198
  1. 中文分词服务器3.3

  2. 软件名称:百万商业圈简易中文分词服务器 作者:百万商业圈 版本:3.2(目前最新单线程服务器版,支持并发) 具体使用时可将 bwsyq.com.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:bwsyq fenci service and serve 0.1 (百万商业圈中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时
  3. 所属分类:其它

    • 发布日期:2013-09-02
    • 文件大小:6mb
    • 提供者:yefengying
  1. pscws23-20081221.tar.bz2【中文分词】

  2. php中文分词 ===== PSCWS23 - 说明文档 ===== $Id: readme.txt,v 1.3 2008/12/21 04:37:59 hightman Exp $ [ 关于 PSCWS23 ] PSCWS23 是由 hightman 于 2006 年开发的纯 PHP 代码实现的简易中文分词系统第二和第三版的简称。 PSCWS 是英文 PHP Simple Chinese Words Segmentation 的头字母缩写,它是 SCWS 项目的前身。 现 SCWS 已作为
  3. 所属分类:PHP

    • 发布日期:2013-09-08
    • 文件大小:2mb
    • 提供者:yao__shun__yu
  1. java中文分词

  2. java中文分词工具,下载后有两个压缩文件,解压导入到myeclipse中即可
  3. 所属分类:Java

    • 发布日期:2013-11-14
    • 文件大小:4mb
    • 提供者:hnhcc39
  1. 分词工具ANSJ 1.3版本

  2. 具体描述请看这里http://ansjsun.github.io/ansj_seg/ 这是最新的ANSJ版本,需要配合另一个tree-split jar包使用,请从这里下载:http://maven.ansj.org/org/ansj/
  3. 所属分类:其它

    • 发布日期:2014-02-14
    • 文件大小:42mb
    • 提供者:jj12345jj198999
  1. 中科院中文分词源代码

  2. NLPIR中文分词源代码是中科院研发的分词工具,ICTCLAS先改名为NLPIR。这个是分词源代码,下载后把路径更改为你自己的就可以运行了。
  3. 所属分类:Java

    • 发布日期:2015-07-02
    • 文件大小:11mb
    • 提供者:lipr86
  1. elasticsearch整合分词、创建索引、搜索例子

  2. lasticsearch整合分词、创建索引、搜索例子,elasticsearch版本为1.0,索引数据从数据表中动态读取生成,有关键字高亮效果,查询分页 1 在dababase目录中导致相关的数据库文件,修改DBCOperation java文件数据库连接地址,修改elasticsearch.properties文件中相关链接 2 运行CreatIndexMysql文件,里面有main方法查询数据库生成相关的索引文件 3 部署工程在tomcat中访问即可看到效果,项目中有很多的工具类,比如类似
  3. 所属分类:Java

    • 发布日期:2015-10-23
    • 文件大小:61mb
    • 提供者:j1582830
  1. Word2vec分词工具

  2. 谷歌Word2vec分词工具,官网已经不能下载了
  3. 所属分类:其它

    • 发布日期:2016-10-07
    • 文件大小:203kb
    • 提供者:fyuanfena
  1. 中文分词器工具包下载(配置+Jar包)

  2. IK配置+两个Jar包,实现与Solr 7.2.1版本的对接,对中文语句进行分词处理,可自行扩展词库字段ext.dict以及停止词字典dict
  3. 所属分类:Web开发

    • 发布日期:2018-02-06
    • 文件大小:1mb
    • 提供者:appleyk
  1. 中文分词学习版

  2. 此为学习版,请勿用于商业用途或扩散。 以下描述转至互联网。 ============== 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自
  3. 所属分类:机器学习

  1. 基于IKAnalyzer.NET的分词工具(包含dll)

  2. 这个分词是前一段需要用时,在网上扒了好久,才找到的一个,而且年代久远,但是还能用,所以记录一下。 基于IKAnalyzer.NET的分词工具(包含dll) 下载可以直接运行
  3. 所属分类:互联网

    • 发布日期:2020-04-22
    • 文件大小:2mb
    • 提供者:yk810906591
  1. 分词工具终极版(词根组合).xlsm

  2. 百度SEM分词工具终极版,里面包含精确分组表、模糊筛选表、分组后数据、最终展现等词根分组组合功能,能处理上万条关键词,将最终关键词数据导入百度推广计划中。
  3. 所属分类:其它

    • 发布日期:2020-03-11
    • 文件大小:86mb
    • 提供者:pan235467
  1. Python结巴中文分词工具使用过程中遇到的问题及解决方法

  2. 主要介绍了Python结巴中文分词工具使用过程中遇到的问题及解决方法,较为详细的讲述了Python结巴中文分词工具的下载、安装、使用方法及容易出现的问题与相应解决方法,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-09-21
    • 文件大小:93kb
    • 提供者:weixin_38705788
  1. NLPIR、pyltp、jieba、hanlp、snownlp分词工具安装使用记录

  2. 最近适用了这五款分词工具,光是下载安装就踩了很多坑,特别是pyltp和hanlp,装到我怀疑人生。 以下是整理的安装过程和注意事项。 希望能给大家提供些帮助。 目录一、Nlpir第一步:下载工具。第二步:下载后,解压,按如下顺序进入目录。第三步:打开工具,可以看到有精准采集、文档转换、批量分词等功能。具体使用方法可参考右下角“使用手册”。二、 Pyltp第一步:下载安装Pyltp。第二步:下载模型。第三步:使用基本组件。三、 Jieba第一步:pip安装,指令为第二步:基于python中jieb
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:781kb
    • 提供者:weixin_38617297
  1. Python结巴中文分词工具使用过程中遇到的问题及解决方法

  2. 本文实例讲述了Python结巴中文分词工具使用过程中遇到的问题及解决方法。分享给大家供大家参考,具体如下: 结巴分词是Python语言中效果最好的分词工具,其功能包括:分词、词性标注、关键词抽取、支持用户词表等。这几天一直在研究这个工具,在安装与使用过程中遇到一些问题,现在把自己的一些方法帖出来分享一下。 官网地址:https://github.com/fxsjy/jieba 1、安装。 按照官网上的说法,有三种安装方式, 第一种是全自动安装:easy_install jieba 或者 pip
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:97kb
    • 提供者:weixin_38632046
« 12 3 4 5 6 7 »