点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 分词工具下载
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
庖丁解牛 中文分词工具
Version 2.0.4–alpha2 通过 analyzer.bat 程序,可以输入中文文本,即时地查看分词效果。 Jar包在lib 文件夹中。 本人倡导零分资源共享,欢迎大家下载和评论。
所属分类:
Java
发布日期:2010-07-17
文件大小:6mb
提供者:
cxb870427
IK Analyzer 中文分词工具
Version 3.2.0 包里面有使用手册。 使用时需要Lucene的一些包,请到本人上传Lucene包中下载http://download.csdn.net/source/2550590
所属分类:
Java
发布日期:2010-07-17
文件大小:1mb
提供者:
cxb870427
中文分词工具-强烈推荐
比较实用,相同的东西别人10分下载,我2分,很仗义吧,哈哈哈。。。
所属分类:
网页制作
发布日期:2011-06-02
文件大小:959kb
提供者:
friend1020
segment.zip
中科院分词工具下载,中科院的分词工具准确率高,在多个方面都能有很好的运用!
所属分类:
Java
发布日期:2011-10-19
文件大小:4kb
提供者:
longyifeixnjd
带词性中文分词_支持数据挖掘
Java语言开发带词性的中文分词,支持快速启动模式,最准确模式和数据挖掘模式,另外需要一个util.jar工具包,在我共享资源里有下载,程序代码本人未能严格考虑其性能,但现在改进后感觉还算满意,如果下载使用者觉得需要改进则自行改进,源代码在jar包内,敬请大家指教,方便的话可以email联系。
所属分类:
Java
发布日期:2008-08-25
文件大小:1mb
提供者:
zhima_2008
IKAnalyzer和Lucene分词工具下载地址+使用方法
经过修改升级版的IKAnalyzer和Lucene分词工具下载地址,及使用配置方法,经过测试Java代码。
所属分类:
Java
发布日期:2013-03-29
文件大小:27kb
提供者:
yutian198
中文分词服务器3.3
软件名称:百万商业圈简易中文分词服务器 作者:百万商业圈 版本:3.2(目前最新单线程服务器版,支持并发) 具体使用时可将 bwsyq.com.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:bwsyq fenci service and serve 0.1 (百万商业圈中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时
所属分类:
其它
发布日期:2013-09-02
文件大小:6mb
提供者:
yefengying
pscws23-20081221.tar.bz2【中文分词】
php中文分词 ===== PSCWS23 - 说明文档 ===== $Id: readme.txt,v 1.3 2008/12/21 04:37:59 hightman Exp $ [ 关于 PSCWS23 ] PSCWS23 是由 hightman 于 2006 年开发的纯 PHP 代码实现的简易中文分词系统第二和第三版的简称。 PSCWS 是英文 PHP Simple Chinese Words Segmentation 的头字母缩写,它是 SCWS 项目的前身。 现 SCWS 已作为
所属分类:
PHP
发布日期:2013-09-08
文件大小:2mb
提供者:
yao__shun__yu
java中文分词
java中文分词工具,下载后有两个压缩文件,解压导入到myeclipse中即可
所属分类:
Java
发布日期:2013-11-14
文件大小:4mb
提供者:
hnhcc39
分词工具ANSJ 1.3版本
具体描述请看这里http://ansjsun.github.io/ansj_seg/ 这是最新的ANSJ版本,需要配合另一个tree-split jar包使用,请从这里下载:http://maven.ansj.org/org/ansj/
所属分类:
其它
发布日期:2014-02-14
文件大小:42mb
提供者:
jj12345jj198999
中科院中文分词源代码
NLPIR中文分词源代码是中科院研发的分词工具,ICTCLAS先改名为NLPIR。这个是分词源代码,下载后把路径更改为你自己的就可以运行了。
所属分类:
Java
发布日期:2015-07-02
文件大小:11mb
提供者:
lipr86
elasticsearch整合分词、创建索引、搜索例子
lasticsearch整合分词、创建索引、搜索例子,elasticsearch版本为1.0,索引数据从数据表中动态读取生成,有关键字高亮效果,查询分页 1 在dababase目录中导致相关的数据库文件,修改DBCOperation java文件数据库连接地址,修改elasticsearch.properties文件中相关链接 2 运行CreatIndexMysql文件,里面有main方法查询数据库生成相关的索引文件 3 部署工程在tomcat中访问即可看到效果,项目中有很多的工具类,比如类似
所属分类:
Java
发布日期:2015-10-23
文件大小:61mb
提供者:
j1582830
Word2vec分词工具
谷歌Word2vec分词工具,官网已经不能下载了
所属分类:
其它
发布日期:2016-10-07
文件大小:203kb
提供者:
fyuanfena
中文分词器工具包下载(配置+Jar包)
IK配置+两个Jar包,实现与Solr 7.2.1版本的对接,对中文语句进行分词处理,可自行扩展词库字段ext.dict以及停止词字典dict
所属分类:
Web开发
发布日期:2018-02-06
文件大小:1mb
提供者:
appleyk
中文分词学习版
此为学习版,请勿用于商业用途或扩散。 以下描述转至互联网。 ============== 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自
所属分类:
机器学习
发布日期:2018-10-11
文件大小:1mb
提供者:
weixin_43387663
基于IKAnalyzer.NET的分词工具(包含dll)
这个分词是前一段需要用时,在网上扒了好久,才找到的一个,而且年代久远,但是还能用,所以记录一下。 基于IKAnalyzer.NET的分词工具(包含dll) 下载可以直接运行
所属分类:
互联网
发布日期:2020-04-22
文件大小:2mb
提供者:
yk810906591
分词工具终极版(词根组合).xlsm
百度SEM分词工具终极版,里面包含精确分组表、模糊筛选表、分组后数据、最终展现等词根分组组合功能,能处理上万条关键词,将最终关键词数据导入百度推广计划中。
所属分类:
其它
发布日期:2020-03-11
文件大小:86mb
提供者:
pan235467
Python结巴中文分词工具使用过程中遇到的问题及解决方法
主要介绍了Python结巴中文分词工具使用过程中遇到的问题及解决方法,较为详细的讲述了Python结巴中文分词工具的下载、安装、使用方法及容易出现的问题与相应解决方法,需要的朋友可以参考下
所属分类:
其它
发布日期:2020-09-21
文件大小:93kb
提供者:
weixin_38705788
NLPIR、pyltp、jieba、hanlp、snownlp分词工具安装使用记录
最近适用了这五款分词工具,光是下载安装就踩了很多坑,特别是pyltp和hanlp,装到我怀疑人生。 以下是整理的安装过程和注意事项。 希望能给大家提供些帮助。 目录一、Nlpir第一步:下载工具。第二步:下载后,解压,按如下顺序进入目录。第三步:打开工具,可以看到有精准采集、文档转换、批量分词等功能。具体使用方法可参考右下角“使用手册”。二、 Pyltp第一步:下载安装Pyltp。第二步:下载模型。第三步:使用基本组件。三、 Jieba第一步:pip安装,指令为第二步:基于python中jieb
所属分类:
其它
发布日期:2021-01-21
文件大小:781kb
提供者:
weixin_38617297
Python结巴中文分词工具使用过程中遇到的问题及解决方法
本文实例讲述了Python结巴中文分词工具使用过程中遇到的问题及解决方法。分享给大家供大家参考,具体如下: 结巴分词是Python语言中效果最好的分词工具,其功能包括:分词、词性标注、关键词抽取、支持用户词表等。这几天一直在研究这个工具,在安装与使用过程中遇到一些问题,现在把自己的一些方法帖出来分享一下。 官网地址:https://github.com/fxsjy/jieba 1、安装。 按照官网上的说法,有三种安装方式, 第一种是全自动安装:easy_install jieba 或者 pip
所属分类:
其它
发布日期:2021-01-20
文件大小:97kb
提供者:
weixin_38632046
«
1
2
3
4
5
6
7
»