点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 中文智能分词
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
[海量智能分词].hlssplit(研究版)
[海量智能分词].hlssplit 研究版~最近在做中文分词相关的项目,【海量智能分词】提供很好的参考~
所属分类:
专业指导
发布日期:2009-08-13
文件大小:6mb
提供者:
jatystone
csw5.0中文分词组件
一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自动摘要、自动分类及信息加工处理等各个领域。 二、本组件特点: 1.适应性强 本组全部件采用
所属分类:
C#
发布日期:2009-09-01
文件大小:3mb
提供者:
madl_lxj_163
支持英文数字中文混合分词-实现很多功能非常强大!
支持英文数字中文混合分词 常用的数量和人名的匹配 超过22万词的词库整理 实现正向最大匹配算法 智能数字,日期,人名识别。分词算法:词库+最大匹配。具体的里面有非常详尽的说明文档
所属分类:
其它
发布日期:2009-09-21
文件大小:43kb
提供者:
manuxiao
C++编写的中文分词程序
C++编写的中文分词程序,可以运行: 输入一个汉字的文本文件,可将里面的汉字分解成一个个符合人们心理的词,有点智能化了哦~
所属分类:
C++
发布日期:2009-09-21
文件大小:82kb
提供者:
manuxiao
JAVA编写的中文智能分词源程序
用JAVA编写的中文智能源程序,用户也可以自己设置一些常用语句。对于研究搜素引擎的学者来说最适合不过了。
所属分类:
Java
发布日期:2009-11-22
文件大小:177kb
提供者:
cctv6909
汉语分词技术综述.pdf
[摘要]首先介绍汉语自动分词技术及基于词索引的中文全文检索技术,接着分别从文献自动标引、文摘自动生成、文本自动 分类、文本信息过滤,自然语言检索接口和智能检索等方面详细地阐述汉语自动分词技术在中文全文检索中的应用,并对目前 汉语自动分词技术存在的局限性进行分析,提出发展思路,最后对汉语自动分词技术在中文全文检索中的应用前景进行预测。 [关键词]汉语自动分词中文全文检索文献自动标引 自然语言检索
所属分类:
专业指导
发布日期:2009-12-14
文件大小:594kb
提供者:
shan_xue_xib
调用海量智能分词研究版的dll获取分词的结果(C#)
中文分词是中文搜索引擎的基础,主要应用在信息检索、信息挖掘、中外文对译、中文校对、自动聚类、自动分类等很多方面. 这个是我参照VC的例子修改的C#版本。
所属分类:
C#
发布日期:2009-12-22
文件大小:6mb
提供者:
new_sky_hony
中文分词中文分词中文分词
分词中文智能分词分词中文智能分词分词中文智能分词分词中文智能分词分词中文智能分词
所属分类:
专业指导
发布日期:2010-01-14
文件大小:1mb
提供者:
futureJing
汉语分词技术综述 文档 论文
首先介绍汉语自动分词技术及基于词索引的中文全文检索技术,接着分别从文献自动标引、文摘自动生成、文本自动 分类、文本信息过滤、自然语言检索接口和智能检索等方面详细地阐述汉语自动分词技术在中文全文检索中的应用,并对目前 汉语自动分词技术存在的局限性进行分析,提出发展思路,最后对汉语自动分词技术在中文全文检索中的应用前景进行预测。
所属分类:
专业指导
发布日期:2010-01-17
文件大小:56kb
提供者:
tberg
asp/jsp/.net/php中文智能分词源代码
中文 智能 分 词源 代码中文智能分词源代码 中文智能分词源代码 中文智能分词源代码 中文智能分词源代码
所属分类:
C#
发布日期:2010-11-15
文件大小:815kb
提供者:
qzzxl
最大匹配法中文分词及人名智能识别程序
这是我假期利用空余时间利用空余时间做的一个中文分词程序!效率很好!能够支持最大匹配法中文分词,人名智能识别!本人承诺完全具有可重复性!只要在cv6上肯定能运行通过,加入了简洁的运行界面!内嵌测试文本,操作简单!一键就能看到结果。
所属分类:
C++
发布日期:2011-03-11
文件大小:616kb
提供者:
lileihengyan
海量智能分词(研究版)
海量智能中文分词(研究版),大家都懂的!
所属分类:
其它
发布日期:2011-07-29
文件大小:6mb
提供者:
menglionel
3GWS-Demo中文分词
很好用的一个中文分词软件。包括词库,智能分词。
所属分类:
C
发布日期:2011-11-09
文件大小:3mb
提供者:
niubenaniu
ICTCLAS2009版中文分词系统
中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级7次,目前已经升级到了ICTCLAS2009 用户词典接口扩展 用户可以动态增加、删除用户词典中的词,调节分词的效果。提高了用户词典使用的灵活性。 分词粒度可调 可以
所属分类:
C++
发布日期:2012-01-02
文件大小:9mb
提供者:
yahawami
收集的一个智能分词工具
收集的一个智能分词工具,该工具很适合做文本识别、搜索
所属分类:
C#
发布日期:2012-05-06
文件大小:2mb
提供者:
hmy1106
php智能分词源码
用php简单实现中文语句语义乃至文章的智能分词,可以应用于智能助手,机器人智能回复当中。
所属分类:
PHP
发布日期:2014-04-02
文件大小:661kb
提供者:
u014510608
第三代智能分词系统3GWS
第三代智能分词系统3GWS有汉语智能分词、命名实体与新词识别、词性标注以及支持用户自定义词典等功能,分词精度在96.56%以上,而且具有良好的跨平台性。
所属分类:
3G/移动开发
发布日期:2009-02-23
文件大小:2mb
提供者:
albert_sky
分词语工具《海量智能分词研究版》
对中文中的词语进行分词,同时可以进行词性标注.可以对中文进行分词处理,处理完后就没有标点等的影响。海量智能计算技术研究中心为了使中文信息处理领域的研究者们能够共同分享海量智能中心的研究成果,共同提高中文信息处理水平,特此发布《海量智能分词研究版》,供专家学者和爱好者进行研究。 《海量智能分词研究版》仅供研究分析和学术交流,不能用于商业用途。 由于《海量智能分词研究版》仅供研究分析和学术交流,所以与正式版本在性能上有一定差别,如果需要正式版本用于商业用途,请与海量智能计算技术研究中心联系。
所属分类:
专业指导
发布日期:2009-03-17
文件大小:6mb
提供者:
zhonghao0077
IKAnalyzer中文分词器
IKAnalyzer分词器,是由java编写的中文分词工具包,目前在lucene以及solr中用的比较多,采用了特有的“正向迭代最细粒度切分算法“,支持细粒度和智能分词两种切分模式
所属分类:
Java
发布日期:2018-10-27
文件大小:2mb
提供者:
qq_38714963
IK Analyzer 开源中文分词 2012 u6.zip
IK Analyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始, IKAnalyzer已经推出了4个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。从3.0版本开 始,IK发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。在2012版本中,IK实现了简单的分词 歧义排除算法,标志着IK分词器从单纯的词典分词向模拟语义分词衍化。 IK Analyz
所属分类:
其它
发布日期:2019-07-06
文件大小:2mb
提供者:
weixin_39840650
«
1
2
3
4
5
6
»