点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 分词中文分词
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
中文分词PPT
中文分词 ppt 牛*
所属分类:
Java
发布日期:2007-08-06
文件大小:525312
提供者:
dashgo
Lucene中文分词 庖丁解牛 2_0_0版
Paoding中文分词参考手册 本文档对应paoding-analysis 2.0.4–alpha2,目前还在草稿状态。 由于没有docbook编辑文档的经验和环境,暂时以word编辑文档。 目录 一般使用 使用评估 参考资料 下载 开始使用 分词策略 高级专题 配置参考 PaodingMaker的设计 庖丁架构 词典的抽象与设计 词典定制 词典动态加载 自定制分词策略 集成指南 Spring XML 配置 一般使用 使用评估 暂略 参考资料 ...展开收缩
所属分类:
Java
发布日期:2009-05-10
文件大小:5242880
提供者:
iMLuther
idf词频统计小巧中文分词词库
idf词频统计小巧中文分词词库 idf词频统计小巧中文分词词库
所属分类:
专业指导
发布日期:2009-05-31
文件大小:790528
提供者:
leo1314lll
php 中文分词程序
包含中文分词程序 与中文分词库 配置方法请看官方网站
所属分类:
PHP
发布日期:2009-06-24
文件大小:3145728
提供者:
tangdayun
中文分词包ictclas4j
中文分词包ictclas4j 中文分词包ictclas4j
所属分类:
Java
发布日期:2009-06-24
文件大小:2097152
提供者:
buaacjl
中文分词 庖丁解牛 2_0_0版本发布 - 企业应用
中文分词 庖丁解牛 2_0_0版本发布 - 企业应用 中文分词 庖丁解牛 2_0_0版本发布 - 企业应用
所属分类:
Java
发布日期:2009-07-19
文件大小:110592
提供者:
ruanpanliang
引入局部统计识别高频词汇的Lucene中文分词程序src.rar
引入局部统计识别高频词汇的Lucene中文分词程序src.rar
所属分类:
专业指导
发布日期:2009-07-29
文件大小:32768
提供者:
luanmad
引入局部统计识别高频词汇的Lucene中文分词程序STUSegmentConfig.rar
引入局部统计识别高频词汇的Lucene中文分词程序STUSegmentConfig.rar
所属分类:
专业指导
发布日期:2009-07-29
文件大小:754
提供者:
luanmad
Lucene关于几种中文分词的总结.doc
Lucene关于几种中文分词的总结.doc Lucene关于几种中文分词的总结.doc Lucene关于几种中文分词的总结.doc
所属分类:
Java
发布日期:2009-08-25
文件大小:36864
提供者:
hbyufan
中文分词组件。1.5版的分词器
je分词器。1.5版的,对以前的有很大的改进,当我1.4的时候,发现连“好人”这个词都分析不出来,所以特上传1.5版
所属分类:
专业指导
发布日期:2009-08-25
文件大小:891904
提供者:
lsyaxue
IKAnalyzer中文分词器V3.1.1使用手册
IKAnalyzer中文分词器V3.1.1使用手册 IKAnalyzer中文分词器V3.1.1使用手册
所属分类:
Java
发布日期:2009-11-05
文件大小:498688
提供者:
jimmylin
中文分词算法研究.caj
中文分词算法研究.caj 刘件 caj文件要下载知网的阅读器
所属分类:
其它
发布日期:2009-11-30
文件大小:331776
提供者:
shan_xue_xib
中文分词论文.rar
中文分词论文合集,有大约10多篇论文,都是比较好的中文分词算法讲解!希望对大家有用!
所属分类:
其它
发布日期:2009-11-30
文件大小:7340032
提供者:
kaparo
IKAnalyzer中文分词器V3.1.1使用手册.pdf
IKAnalyzer中文分词器V3.1.1使用手册.pdf
所属分类:
专业指导
发布日期:2009-12-03
文件大小:498688
提供者:
chinawr
刨丁解羊中文分词器-主要用于对网络蜘蛛或网络爬虫抓取的网页进行分词
刨丁解羊中文分词器,主要用于对网络蜘蛛或网络爬虫抓取的网页进行分词,支持繁体中文分词、简体中文分词、英文分词,是制作通用搜索引擎和垂直搜索引擎的核心组件。该软件在普通PC机器上测试显示:TXT格式正文分词速度约为3000万字/分钟,网页分词速度约为277.8个网页/秒。该软件采用基础词库(63万词语)+扩展词库(用户可手工添加新词)。DLL及OCX调用请联系QQ(601069289)。
所属分类:
网络基础
发布日期:2010-08-30
文件大小:2097152
提供者:
henggua
中文分词十年回顾 自动分词系统
过去的十年间,尤其是2003年国际中文分词评测活动Bakeoff开展以来,中文自动分词技术有了可喜的进 步。其主要表现为:(1)通过“分词规范+词表+分词语料库”的方法,使中文词语在真实文本中得到了可计算的定 义,这是实现计算机自动分词和可比评测的基础;(2)实践证明,基于手工规则的分词系统在评测中不敌基于统计 学习的分词系统;(3)在Bakeoff数据上的评估结果表明,未登录词造成的分词精度失落至少比分词歧义大5倍以 上;(4)实验证明,能够大幅度提高未登录词识别性能的字标注统计学习方法优于
所属分类:
其它
发布日期:2011-04-10
文件大小:1048576
提供者:
lwccb
分词组件V2.3.1源码
分词组件V2.3.1源码 程序介绍: 盘古分词是一个中英文分词组件。作者eaglet 曾经开发过KTDictSeg 中文分词组件,拥有大量用户来自51ASPX。 作者基于之前分词组件的开发经验,结合最新的开发技术重新编写了盘古分词组件。 中文分词功能 中文未登录词识别 盘古分词可以对一些不在字典中的未登录词自动识别 词频优先 盘古分词可以根据词频来解决分词的歧义问题 多元分词 盘古分词提供多重输出解决分词粒度和分词精度权衡的问题 中文人名识别 输入: “张三说的确实在理” 分词结果:张三/说/
所属分类:
C#
发布日期:2012-05-23
文件大小:6291456
提供者:
ss_geng
Ansj中文分词(强大)
Ansj中文分词是一款纯Java、主要用于自然语言处理、高精度的中文分词工具,目标是“准确、高效、自由地进行中文分词”。 内容简介:http://www.iteye.com/magazines/102#234 此分词具有自己学习的功能,所以拜托大家不要.乱提交数据.会带坏人家的.说着神秘.其实是一种机器学习动态规划模型!如果你发现此模式分词存在问题.可以看.新词发现.是此分词的初始版本! 此分词保证了准确率,具有人名识别的功能! 此分词结果,具有新词发现,人名识别,机构名识别.也许准确率稍差.
所属分类:
Java
发布日期:2013-06-21
文件大小:13631488
提供者:
kutekute
中文分词工具word-1.0,Java实现的中文分词组件多种基于词典的分词算法
word分词是一个Java实现的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。 能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未登录词。 同时提供了Lucene、Solr、ElasticSearch插件。 分词使用方法: 1、快速体验 运行项目根目录下的脚本demo-word.bat可以快速体验分词效果 用法: command [text] [input] [output] 命令command的可选值为:demo、text、file
所属分类:
Java
发布日期:2014-11-05
文件大小:10485760
提供者:
love_hachi
中文分词入门与字标注法
作为中文信息处理的“桥头堡”,中文分词在国内的关注度似乎远远超过了自然语言处理的其他研究领域。在中文分词中,资源的重要性又不言而喻,最大匹配法等需要一个好的词表,而基于字标注的中文分词方法又需要人工加工好的分词语料库。所以想研究中文分词,第一步需要解决的就是资源问题,这里曾经介绍过“LDC上免费的中文信息处理资源”,其中包括一个有频率统计的词表,共计44405条,就可以作为一个不错的中文分词词表使用。而一个好的人工分词语料库,需要很大的人力物力投入,所以无论研究还是商用往往需要一定的费用购买,
所属分类:
深度学习
发布日期:2017-12-14
文件大小:251904
提供者:
u011563494
«
1
2
3
4
5
6
7
8
9
10
...
50
»