点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 分词器代码
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
lucene分词测试代码
用java写的图形分词测试的小东西,用的分词器是:来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器,其使用“正向全切分算法”,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP),对数量词、地名、路名的优化处理,对未知词汇采用自识别结合二元切分算法,确保搜索召回率。但是没有源代码下载,只能联系作者索要。
所属分类:
其它
发布日期:2007-11-21
文件大小:2mb
提供者:
robinfoxnan
Lucene 3.0 原理与代码分析
本系列文章将详细描述几乎最新版本的Lucene的基本原理和代码分析。 其中总体架构和索引文件格式是Lucene 2.9的,索引过程分析是Lucene 3.0的。 鉴于索引文件格式没有太大变化,因而原文没有更新,原理和架构的文章中引用了前辈的一些图,可能属于早期的Lucene,但不影响对原理和架构的理解。 本系列文章尚在撰写之中,将会有分词器,段合并,QueryParser,查询语句与查询对象,搜索过程,打分公式的推导等章节。 提前给大家分享,希望大家批评指正。 Lucene学习总结之一:全文检
所属分类:
专业指导
发布日期:2010-02-22
文件大小:4mb
提供者:
forfuture1978
最新Lucene 3.0 原理与代码分析
本文将详细描述几乎最新版本的Lucene的基本原理和代码分析。 其中总体架构和索引文件格式是Lucene 2.9的,索引过程分析是Lucene 3.0的。 鉴于索引文件格式没有太大变化,因而原文没有更新,原理和架构的文章中引用了前辈的一些图,可能属于早期的Lucene,但不影响对原理和架构的理解。 本系列文章尚在撰写之中,将会有分词器,段合并,QueryParser,查询语句与查询对象,搜索过程,打分公式的推导等章节。
所属分类:
专业指导
发布日期:2010-05-08
文件大小:4mb
提供者:
wine471039801
分词的相关编程以及代码段
分词器的相关代码 编译课程的大作业 分词的相关编程以及代码段
所属分类:
专业指导
发布日期:2010-06-08
文件大小:1kb
提供者:
ljwlj
Lucene3.0原理与代码分析
本系列文章将详细描述几乎最新版本的Lucene的基本原理 和代码分析。 其中总体架构和索引文件格式是Lucene 2.9的,索引过程分 析是Lucene 3.0的。 鉴于索引文件格式没有太大变化,因而原文没有更新,原理 和架构的文章中引用了前辈的一些图,可能属于早期的 Lucene,但不影响对原理和架构的理解。 本系列文章尚在撰写之中,将会有分词器,段合并, QueryParser,查询语句与查询对象,搜索过程,打分公式 的推导等章节。
所属分类:
专业指导
发布日期:2010-08-26
文件大小:4mb
提供者:
liushaoke_kexuejia
IKAnalyzer中文分词器V3.2.8使用手册
力荐,中文分词技术,在google code中有开源代码。
所属分类:
Java
发布日期:2011-08-26
文件大小:739kb
提供者:
ya_yu
中文 英文分词器
目前最流行的中文 英文分词器 jar、代码、api都包含了,非常齐全。
所属分类:
Java
发布日期:2012-05-30
文件大小:1mb
提供者:
chinasoft888888
中科院分词器
中科院的分词软件以及代码,代码使用c++写的。写搜做引擎的朋友们可以下来参考参考
所属分类:
Web开发
发布日期:2012-07-31
文件大小:5mb
提供者:
veesonsan
lucene实例(中文分词)
lucene实例是一个比较详细的例子,包括lucene的入门到高级实例,代码里有比较详细的实例,所有的实例都是通过junit来测试的。实例包括各种搜索:如通配符查询、模糊查询、查询结果的分页、中文分词器、自定义分词器等
所属分类:
Java
发布日期:2013-01-04
文件大小:1mb
提供者:
guoyiqi
mmseg4j-all-1.9.0.v20120712-SNAPSHOT.jar (非Bug版)
mmseg4j是一个很出色的中文分词器,当前最新版本为1.9,官方的版本和solr4.0组合使用时因为solr4.0接口的变化导致无法正常运行,所以需要对mmseg4j中的部分代码进行修改,该版本是本人修改后的版本,测试后可以正常工作!
所属分类:
Java
发布日期:2013-01-14
文件大小:99kb
提供者:
keepthinking_
基于Lucene的中文分词器代码paoding,IK,imdict,mmseg4j
基于Lucene的中文分词器代码paoding,IK,imdict,mmseg4j。测试可运行,输入一个段落,每个分词器的分词结果不同,可得到结果和所需时间。
所属分类:
Java
发布日期:2013-09-23
文件大小:23mb
提供者:
lilongbao123
中科院分词器ICTCLAS,编译版(64bit)
中科院分词器ICTCLAS,已经实现了二进制程序,有相关的代码,运行比较简单,执行wordseg infile outfile就可以,可以用于对word2vec需要的语料进行分词
所属分类:
C++
发布日期:2013-11-22
文件大小:5mb
提供者:
wdxin1322
使用IK Analyzer实现中文分词之Java实现
1、lucene-core-3.6.0.jar 2、IKAnalyzer2012.jar(主jar包) 3、IKAnalyzer.cfg.xml(分词器扩展配置文件) 4、stopword.dic(停止词典) 5.IkSegmentation.java(示例代码)
所属分类:
Java
发布日期:2015-03-30
文件大小:3mb
提供者:
luozhipeng2011
支持Spring-data-solr1.5的ik分词器,同义词
支持Spring-data-solr1.5的ik分词器,并且修改了代码,添加一个新的类,用于支持同义词,目前可以同时支持分词和同义词的功能。 修改 managed-schema,添加 ...展开收缩
所属分类:
Java
发布日期:2016-04-28
文件大小:1mb
提供者:
wlf820
高版本Lucene的IK分词器
maven库中现有的ik分词器只支持低版本的Lucene,想要支持高版本的Lucene,需要重写老版本ik分词器里的部分代码. 下载代码片段后导入项目,在创建分词器的时候把new IKAnalyzer替换为 new IKAnalyzer5x即可。
所属分类:
Java
发布日期:2017-08-30
文件大小:2kb
提供者:
w26245
HMM中文分词
基于HMM的中文分词代码,虽然基于字标注的中文分词借鉴了词性标注的思想,但是在实践中,多数paper中的方法似乎局限于最大熵模型和条件随机场的应用,所以我常常疑惑字标注中文分词方法为什么不采用别的模型和方法呢?莫非是由于其诞生之初就采用了最大熵模型的缘故。但是,在词性标注中,Citar实现的是TnT中所采用的HMM trigram方法,其所宣称的性能是不亚于最大熵模型等词性标注器的。基于这样的前提,本文就验证一下基于Citar实现的HMM trigram字标注中文分词器的性能虽然基于字标注的中
所属分类:
机器学习
发布日期:2018-06-19
文件大小:4mb
提供者:
qq_39635806
lucene检索实例代码,自己总结的非常详细
文档中包含Lucene4.0.0版本jar包,中文分词器jar包,Lucene实例代码 1:建立索引 2:各种搜索方式方法 3:删除索引 4:检查索引文件 5:恢复删除的索引 6:强制删除 7:更新索引 8:合并索引 9:高亮回显 供大家参考学习 public static void main(String[] args) { LuceneUtil luceneUtil = new LuceneUtil(); // 创建索引 // luceneUtil.index(); // 搜索 lucen
所属分类:
Java
发布日期:2018-07-13
文件大小:60mb
提供者:
run65536
中文分词器jcseg支持人名识别mmseg四种过滤算法分词准确率达到了97%以上。支持自定义词库。在lexicon文件夹下可以随便添加删除更改词库和词库内容并且对词库进行了分类.zip
中文分词器jcseg支持人名识别mmseg四种过滤算法分词准确率达到了97%以上。支持自定义词库。在lexicon文件夹下可以随便添加删除更改词库和词库内容并且对词库进行了分类.zip,太多无法一一验证是否可用,程序如果跑不起来需要自调,部分代码功能进行参考学习。
所属分类:
其它
发布日期:2019-07-30
文件大小:2mb
提供者:
weixin_39840387
IKAnalyzer中文分词.rar
IK Analyzer是什么呢,就是我们需要的这个工具,是基于java开发的轻量级的中文分词工具包。它是以开源项目Luence为主体的,结合词典分词和文法分析算法的中文分词组件。 IKAnalyzer继承Lucene的Analyzer抽象类,使用IKAnalyzer和Lucene自带的分析器方法一样,将Analyzer测试代码改为IKAnalyzer测试中文分词效果。 如果使用中文分词器ik-analyzer,就需要在索引和搜索程序中使用一致的分词器:IK-analyzer。
所属分类:
互联网
发布日期:2020-06-06
文件大小:1mb
提供者:
zhouth94
如何在docker容器内部安装kibana分词器
步骤: 1.在虚拟机目录下新建docker-compose.yml文件,然后进入yml文件编辑 vi docker-compose.yml 2.在yml文件中添加如下代码: version: 3.1 services: elasticsearch: image: daocloud.io/library/elasticsearch:6.5.4 restart: always container_name: elasticsearch ports: - 9200:920
所属分类:
其它
发布日期:2021-01-08
文件大小:40kb
提供者:
weixin_38620267
«
1
2
3
4
5
6
7
8
»