点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 分词集成
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
ik分词-解决集成solr是出现的越界异常
ik分词-解决集成solr是出现的越界异常。可自定义自己的词库。
所属分类:
专业指导
发布日期:2009-10-20
文件大小:1mb
提供者:
michaelzqm
庖丁解牛,一种中文分词器
一款比较好的中文分词器,可以很方便地集成到lucene中,集成到lucene3.0中的时候需要做一些修改,具体修改方法可以百度之
所属分类:
专业指导
发布日期:2010-08-25
文件大小:6mb
提供者:
jiawangxi1
mmseg4j1.8.4分词工具
mmseg4j1.8.4分词工具,可以方便的集成在lucene后者solr中。
所属分类:
其它
发布日期:2011-12-14
文件大小:689kb
提供者:
liuadolf
ik分词包 用于lucene4.2和solr4.2的最新包
自从lucene和solr推出4.0版本后 ik分词的调用接口已经不适用了,虽说ik最新ff版适用于solr4.0 但是solr4.2出来之后发现又不适用了,本人花了一点功夫熟悉solr4.2的分词调用接口补写了一个IkTokenizerFactory类 经测试已经集成solr4.2 成功
所属分类:
Java
发布日期:2013-05-04
文件大小:1mb
提供者:
shuaizhihu
庖丁解牛 中文分词 java 最新版
目前为止最好用的中文分词JAVA 程序,方便集成,支持lucenue 庖丁解牛 中文分词 java 最新版
所属分类:
Java
发布日期:2015-02-26
文件大小:5mb
提供者:
qq_26194003
IK Analyzer 2012FF分词包
IK Analyzer 2012FF分词包,可以与lucence和solr集成,分词效果不错
所属分类:
Java
发布日期:2015-05-11
文件大小:1mb
提供者:
linbo6
elasticsearch整合分词、创建索引、搜索例子
lasticsearch整合分词、创建索引、搜索例子,elasticsearch版本为1.0,索引数据从数据表中动态读取生成,有关键字高亮效果,查询分页 1 在dababase目录中导致相关的数据库文件,修改DBCOperation java文件数据库连接地址,修改elasticsearch.properties文件中相关链接 2 运行CreatIndexMysql文件,里面有main方法查询数据库生成相关的索引文件 3 部署工程在tomcat中访问即可看到效果,项目中有很多的工具类,比如类似
所属分类:
Java
发布日期:2015-10-23
文件大小:61mb
提供者:
j1582830
中文分词支持solr 5.3.0的IKAnalyzer中文分词器
中文分词支持solr 5.3.0的IKAnalyzer中文分词器 IKAnalyzer中文分词器本身已经不支持最新的solr 5,集成到solr中分词会报错,这里将解决了solr 5支持问题的最新IK包共享出来,希望能帮到各位! 附上IK在schema.xml中的配置: ...展开收缩
所属分类:
Web开发
发布日期:2016-04-15
文件大小:1mb
提供者:
finalxwl
solr6.0+mysql+IK分词集成
solr6.0+mysql+IK分词集成
所属分类:
Java
发布日期:2016-06-01
文件大小:48mb
提供者:
linzhiqiang0316
solr6.0+mysql+IK分词集成
solr6.0 mysqlIK 分词集成
所属分类:
Java
发布日期:2017-04-13
文件大小:48mb
提供者:
fl0088
word-1.3.1.jar中文分词
word 分词是一个Java实现的分布式的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未登录词。能通过自定义配置文件来改变组件行为,能自定义用户词库、自动检测词库变化、支持大规模分布式环境,能灵活指定多种分词算法,能使用refine功能灵活控制分词结果,还能使用词性标注、同义标注、反义标注、拼音标注等功能。同时还无缝和Lucene、Solr、ElasticSearch、Luke集成。
所属分类:
Hadoop
发布日期:2017-09-26
文件大小:24mb
提供者:
shuaigexiaobo
IKAnalyzer中文分词5.x jar包
适用于solr5.X版本的中文分词jar包,我安装的是solr5.5.4,集成进去是可以用的
所属分类:
Java
发布日期:2017-10-23
文件大小:1mb
提供者:
qq_23026673
jcseg,Jcseg 是基于 mmseg 算法的一个轻量级中文分词器,同时集成了关键字提取,关键短语提取,关键句子提取和文章自动摘要等功能,并且提供了一个基于 Jetty 的 web 服务器,方便各大语言直接 http 调用,同时提供了最
Jcseg是基于 mmseg 算法的一个轻量级中文分词器,同时集成了关键字提取,关键短语提取,关键句子提取和文章自动摘要等功能,并且提供了一个基于 Jetty 的 web 服务器,方便各大语言直接 http 调用,同时提供了最新版本的 lucene, solr, elasticsearch 的分词接口!Jcseg自带了一个 jcseg.properties 文件用于快速配置而得到适合不同场合的分词应用,例如:最大匹配词长,是否开启中文人名识别,是否追加拼音,是否追加同义词等!
所属分类:
其它
发布日期:2019-10-13
文件大小:2mb
提供者:
weixin_38744153
solr+IK分词集成tomcat实现电商项目的全文检索
压缩包内含有solr+ik如何配置的详细介绍以及solr+ik的包,省去了自己去找地址下载的麻烦,经测试使用完全可以在电商电商项目中实现全文检索
所属分类:
Java
发布日期:2017-06-30
文件大小:1mb
提供者:
qq_38545713
python使用jieba实现中文分词去停用词方法示例
jieba分词,完全开源,有集成的python库,简单易用。下面这篇文章主要给大家介绍了关于python使用jieba实现中文分词去停用词的相关资料,文中通过示例代码介绍的非常详细,需要的朋友可以参考借鉴,下面来一起看看吧。
所属分类:
其它
发布日期:2020-09-20
文件大小:46kb
提供者:
weixin_38530202
Jcseg中文分词器 v2.6.2
为您提供Jcseg中文分词器下载,Jcseg是基于mmseg算法的一个轻量级中文分词器,同时集成了关键字提取,关键短语提取,关键句子提取和文章自动摘要等功能,并且提供了一个基于Jetty的web服务器,方便各大语言直接http调用,同时提供了最新版本的lucene,solr,elasticsearch的分词接口!Jcseg自带了一个jcseg.properties文件用于快速配置而得到适合不同场合的分词应用,例如:最大匹配词长,是
所属分类:
其它
发布日期:2020-09-28
文件大小:4mb
提供者:
weixin_38608379
基于Lucene的中文分词器的设计与实现
针对Lucene自带中文分词器分词效果差的缺点,在分析现有分词词典机制的基础上,设计了基于全哈希整词二分算法的分词器,并集成到Lucene中,算法通过对整词进行哈希,减少词条匹配次数,提高分词效率。该分词器词典文件维护方便,可以根据不同应用的要求进行定制,从而提高了检索效率。
所属分类:
其它
发布日期:2020-10-20
文件大小:152kb
提供者:
weixin_38586942
集成分词器—–solr自带分词器和IK分词器对比
环境信息 系统:CentOS Linux release 7.6.1810 solr:solr-7.7.2 java:openjdk 1.8.0_222 IKAnalyzer:ik-analyzer-solr7-7.x 集成IK分词器 solr安装参见博文—-Apache solr入门 下载分词器jar包,github地址 将ik-analyzer-solr7-7.x.jar包上传到 $SOLR_INSTALL_HOME/server/solr-webapp/webapp/WEB-INF/lib
所属分类:
其它
发布日期:2021-01-07
文件大小:202kb
提供者:
weixin_38602982
C#编写的ChineseSplitter中文分词系统源代码
简介 ChineseSplitter中文分词系统集成了单字(一元切分)、双字(二元切分)、词义切分等分词方法。提供很好的权重计算办法。类结构 BaseSplitter(分词基类) │ ├─SingleSplitter(一元切分) │ ├─DoubleSplitter(二元切分) │ └─DefaultSplitter(词义切分)────NICTCLAS(中科院分词系统) KeywordsSort(关键字排序类) 不错的中文分词组件,带了语料库。
所属分类:
其它
发布日期:2021-03-16
文件大小:2mb
提供者:
weixin_38558870
nlp_windows_exe_ui:python3.6-制作一个包含NLP基本功能系统(Windows exe)自然语言处理系统。系统功能:分词,词性标注,关键词提取,文本分类-源码
nlp_windows_exe_ui 介绍 python3.6-制作一个包含NLP基本功能系统(Windows exe)自然语言处理系统。系统功能:分词,词性标注,关键字提取,文本分类;由于要打包成exe的关系,我将原本的项目的多一个文件的集成到一个python文件(合并文件)里,只保留了使用该系统所需要的函数,方便打包,通俗地讲就是,生成生成词向量过程,装袋过程,模型训练过程的,以及一些中间步骤的程序代码,这些有些涉及很多库的,这些打包进去。但是整个项目里的东西是完整的(包括数据) 运行这个系
所属分类:
其它
发布日期:2021-03-15
文件大小:20mb
提供者:
weixin_42129113
«
1
2
3
4
5
6
7
8
9
10
»