点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 中文分词java代码
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
lucene分词测试代码
用java写的图形分词测试的小东西,用的分词器是:来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器,其使用“正向全切分算法”,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP),对数量词、地名、路名的优化处理,对未知词汇采用自识别结合二元切分算法,确保搜索召回率。但是没有源代码下载,只能联系作者索要。
所属分类:
其它
发布日期:2007-11-21
文件大小:2mb
提供者:
robinfoxnan
中文分词 核心代码 java
完整的还没写完,希望最后可以编译通过,加油 嘿嘿
所属分类:
Java
发布日期:2010-04-21
文件大小:923byte
提供者:
chinahongfu
中文分词java源代码
中文分词源代码,值得仔细研究研究,对自然语言处理、搜索引擎等有研究兴趣的大侠可以看一看
所属分类:
Java
发布日期:2010-05-25
文件大小:1mb
提供者:
iloveinweb
java 实现的中文分词算法(代码)
java 实现的基于FMM BMM算法的,中文分词算法(代码)
所属分类:
Java
发布日期:2011-04-14
文件大小:3mb
提供者:
strong8808
中科院分词java代码
中科院分词算法为目前针对中文文本分词效果最佳的算法,为聚类算法提供了良好的数据源
所属分类:
其它
发布日期:2012-04-13
文件大小:8mb
提供者:
bishenghua3
中文分词部分代码
中文分词已实现了1、一维线性表 2、首字Hash 3、双Hash 三种词典的存储结构与表现形式。 首先来看一下词典结构的接口Interface: java 代码
所属分类:
Java
发布日期:2012-08-21
文件大小:4kb
提供者:
lq1121028216
中文分词 java代码
中文分词 java代码
所属分类:
Java
发布日期:2012-10-23
文件大小:382kb
提供者:
turbocasa
带词性中文分词_支持数据挖掘
Java语言开发带词性的中文分词,支持快速启动模式,最准确模式和数据挖掘模式,另外需要一个util.jar工具包,在我共享资源里有下载,程序代码本人未能严格考虑其性能,但现在改进后感觉还算满意,如果下载使用者觉得需要改进则自行改进,源代码在jar包内,敬请大家指教,方便的话可以email联系。
所属分类:
Java
发布日期:2008-08-25
文件大小:1mb
提供者:
zhima_2008
中文分词服务器3.3
软件名称:百万商业圈简易中文分词服务器 作者:百万商业圈 版本:3.2(目前最新单线程服务器版,支持并发) 具体使用时可将 bwsyq.com.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:bwsyq fenci service and serve 0.1 (百万商业圈中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时
所属分类:
其它
发布日期:2013-09-02
文件大小:6mb
提供者:
yefengying
使用IK Analyzer实现中文分词之Java实现
1、lucene-core-3.6.0.jar 2、IKAnalyzer2012.jar(主jar包) 3、IKAnalyzer.cfg.xml(分词器扩展配置文件) 4、stopword.dic(停止词典) 5.IkSegmentation.java(示例代码)
所属分类:
Java
发布日期:2015-03-30
文件大小:3mb
提供者:
luozhipeng2011
中文分词java程序
中文分词源代码,值得仔细研究研究,对自然语言处理、搜索引擎等有研究兴趣的可以看一看。
所属分类:
Java
发布日期:2017-03-21
文件大小:1mb
提供者:
qinzhenhua100
藏拙简易中文分词服务器源代码及词库
软件名称:藏拙简易中文分词服务器 作者:藏拙 具体使用时可将 cangzhuo.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:cangzhuo fenci service and serve 0.1 (藏拙中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时又还是一个Scoket server 通信端口是 888. 分词
所属分类:
Web开发
发布日期:2009-02-18
文件大小:1mb
提供者:
u012960424
中文分词服务器源代码及词库
软件名称:藏拙简易中文分词服务器 作者:藏拙 具体使用时可将 cangzhuo.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:cangzhuo fenci service and serve 0.1 (藏拙中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时又还是一个Scoket server 通信端口是 888. 分词
所属分类:
Web开发
发布日期:2009-02-18
文件大小:1mb
提供者:
xuying198702
中文分词服务器源代码及词库
软件名称:藏拙简易中文分词服务器 作者:藏拙 具体使用时可将 cangzhuo.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:cangzhuo fenci service and serve 0.1 (藏拙中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时又还是一个Scoket server 通信端口是 888. 分词
所属分类:
Web开发
发布日期:2009-02-18
文件大小:1mb
提供者:
mysqlyao
中文分词mapreduce程序
对中文进行分词的java代码,分别在map reduce中实现。
所属分类:
Java
发布日期:2018-03-07
文件大小:1mb
提供者:
yerrow_dark
中文分词学习版
此为学习版,请勿用于商业用途或扩散。 以下描述转至互联网。 ============== 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自
所属分类:
机器学习
发布日期:2018-10-11
文件大小:1mb
提供者:
weixin_43387663
IKAnalyzer中文分词.rar
IK Analyzer是什么呢,就是我们需要的这个工具,是基于java开发的轻量级的中文分词工具包。它是以开源项目Luence为主体的,结合词典分词和文法分析算法的中文分词组件。 IKAnalyzer继承Lucene的Analyzer抽象类,使用IKAnalyzer和Lucene自带的分析器方法一样,将Analyzer测试代码改为IKAnalyzer测试中文分词效果。 如果使用中文分词器ik-analyzer,就需要在索引和搜索程序中使用一致的分词器:IK-analyzer。
所属分类:
互联网
发布日期:2020-06-06
文件大小:1mb
提供者:
zhouth94
中文分词 java 代码
中文分词 java 代码
所属分类:
Java
发布日期:2017-04-13
文件大小:4kb
提供者:
weixin_37926579
java中文分词之正向最大匹配法实例代码
中文分词应用很广泛,网上也有很多开源项目,下面这篇文章主要给大家介绍了关于java中文分词之正向最大匹配法的相关资料,文中通过示例代码介绍的非常详细,需要的朋友可以参考借鉴,下面随着小编来一起学习学习吧。
所属分类:
其它
发布日期:2020-08-28
文件大小:54kb
提供者:
weixin_38576811
PHP中文分词的简单实现代码分享
当然, 本文不是要对中文搜索引擎做研究, 而是分享如果用 PHP 做一个站内搜索引擎。 本文是这个系统中的一篇。 我使用的分词工具是中科院计算所的开源版本的 ICTCLAS。 另外还有开源的 Bamboo, 我随后也会对该工具进行调研。 从 ICTCLAS 出发是个不错的选择, 因为其算法传播比较广泛, 有公开的学术文档, 并且编译简单, 库依赖少。 但目前只提供了 C/C++, Java 和 C# 版本的代码, 并没有 PHP 版本的代码。 怎么办呢? 也许可以学习它的 C/C++ 源码和学术
所属分类:
其它
发布日期:2020-12-18
文件大小:53kb
提供者:
weixin_38550334
«
1
2
3
»