您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 百万商业圈 .NET 开发框架及开发框架API说明书 核心库

  2. 1、Microsoft.Bussines.CommonProxy.dll 框架核心API库 包括:常用加密解密,缓存集群,IP地址库,Html Parse,金额转换,GoogleMap Api,Google PR,ImageMagick(图片处理),SharpZipLib压缩解压缩,中文分词核心库 2、WebSystem.Framework.dll 框架核心API库 包括:与Discuz相关的集成登陆,Evaluator计算表达式,Excel相关处理,Pdf处理,Msmq消息队列处理,Thre
  3. 所属分类:Web开发

    • 发布日期:2011-06-27
    • 文件大小:12mb
    • 提供者:bwsyq_com
  1. 百万商业圈 .NET 开发框架及开发框架API说明书 DEMO

  2. 1、Microsoft.Bussines.CommonProxy.dll 框架核心API库 包括:常用加密解密,缓存集群,IP地址库,Html Parse,金额转换,GoogleMap Api,Google PR,ImageMagick(图片处理),SharpZipLib压缩解压缩,中文分词核心库 2、WebSystem.Framework.dll 框架核心API库 包括:与Discuz相关的集成登陆,Evaluator计算表达式,Excel相关处理,Pdf处理,Msmq消息队列处理,Thre
  3. 所属分类:Web开发

    • 发布日期:2011-06-27
    • 文件大小:9mb
    • 提供者:bwsyq_com
  1. Lucene 3.6 学习笔记

  2. 目录 序言: 1 第一章 LUCENE基础 2 1.1 索引部分的核心类 2 1.2 分词部分的核心类 2 1.3 搜索部分的核心类 2 第二章 索引建立 3 2.1 创建Directory 3 2.2 创建Writer 3 2.3 创建文档并且添加索引 4 2.4 查询索引的基本信息 5 2.5 删除和更新索引 5 (1) 使用writer删除 5 (2) 使用reader删除 5 (3) 恢复删除 5 (4) 彻底删除 6 (5) 更新索引 6 (6) 手动优化 6 2.6 索引文件作用
  3. 所属分类:Java

    • 发布日期:2014-08-05
    • 文件大小:2mb
    • 提供者:yiwangxianshi
  1. 中文分词工具word-1.0,Java实现的中文分词组件多种基于词典的分词算法

  2. word分词是一个Java实现的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。 能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未登录词。 同时提供了Lucene、Solr、ElasticSearch插件。 分词使用方法: 1、快速体验 运行项目根目录下的脚本demo-word.bat可以快速体验分词效果 用法: command [text] [input] [output] 命令command的可选值为:demo、text、file
  3. 所属分类:Java

    • 发布日期:2014-11-05
    • 文件大小:10mb
    • 提供者:love_hachi
  1. 使用IK Analyzer实现中文分词之Java实现(包含所有工具包)

  2. 1、lucene-core-3.6.0.jar 2、IKAnalyzer2012.jar(主jar包) 3、IKAnalyzer.cfg.xml(分词器扩展配置文件) 4、stopword.dic(停止词典) 5、IkSegmentation.java(样例类)
  3. 所属分类:Java

    • 发布日期:2015-03-30
    • 文件大小:3mb
    • 提供者:luozhipeng2011
  1. 使用IK Analyzer实现中文分词之Java实现

  2. 1、lucene-core-3.6.0.jar 2、IKAnalyzer2012.jar(主jar包) 3、IKAnalyzer.cfg.xml(分词器扩展配置文件) 4、stopword.dic(停止词典) 5.IkSegmentation.java(示例代码)
  3. 所属分类:Java

    • 发布日期:2015-03-30
    • 文件大小:3mb
    • 提供者:luozhipeng2011
  1. solr6.2完整版

  2. 是一个tomcat和solrhome的压缩包,下载后只需要修改一下apache-tomcat-8.5.6\webapps\solr\WEB-INF\web.xml里面的第43行D:\solrhome,将目录修改成你自己用来存放solrhome文件夹的路径即可,需要注意的是,jdk要求1.8,内部以集成ik分词器,fiel为text_ik
  3. 所属分类:Web服务器

    • 发布日期:2017-03-09
    • 文件大小:49mb
    • 提供者:debushiwo
  1. Es5.6.1版本的所有总结V2.0

  2. es从基本介绍,安装部署,java api使用,分词器的介绍,等等,建议用notepad++看格式更好,
  3. 所属分类:Java

    • 发布日期:2017-10-12
    • 文件大小:18kb
    • 提供者:li_work
  1. solr-6.5.1

  2. 本资源包含: ik-analyzer-solr5-5.x.jar 分词器 pinyinAnalyzer.jar 分词器 solr-6.5.1.tgz solr-6.5.1.zip solr教程.pdf Solr-学习笔记.pdf
  3. 所属分类:Java

    • 发布日期:2017-10-28
    • 文件大小:296mb
    • 提供者:duguxingfeng
  1. elasticsearch-analysis-ik-5.6.4.zip

  2. elasticsearch-analysis-ik-5.6.4.zip es中大名鼎鼎的ik分词器 The IK Analysis plugin integrates Lucene IK analyzer (http://code.google.com/p/ik-analyzer/) into elasticsearch, support customized dictionary.
  3. 所属分类:其它

    • 发布日期:2017-11-18
    • 文件大小:4mb
    • 提供者:shannonlee
  1. 针对Solr6.6.0的IK分词器

  2. 包含ik-analyzer-solr5-5.x.jar、solr-analyzer-ik-5.1.0.jar、ext.dic、IKAnalyzer.cfg.xml、stopword.dic
  3. 所属分类:其它

    • 发布日期:2018-03-15
    • 文件大小:1mb
    • 提供者:u011035026
  1. Ikik-analyzer-solr-6.5.1

  2. Ikik-analyzer-solr-6.5.1 中文分词器6.5.1,最高支持到lucene6.5.1版本
  3. 所属分类:Java

    • 发布日期:2018-04-22
    • 文件大小:1mb
    • 提供者:yuruixin_china
  1. lucene检索实例代码,自己总结的非常详细

  2. 文档中包含Lucene4.0.0版本jar包,中文分词器jar包,Lucene实例代码 1:建立索引 2:各种搜索方式方法 3:删除索引 4:检查索引文件 5:恢复删除的索引 6:强制删除 7:更新索引 8:合并索引 9:高亮回显 供大家参考学习 public static void main(String[] args) { LuceneUtil luceneUtil = new LuceneUtil(); // 创建索引 // luceneUtil.index(); // 搜索 lucen
  3. 所属分类:Java

    • 发布日期:2018-07-13
    • 文件大小:60mb
    • 提供者:run65536
  1. solr中文分词高版本

  2. 由于网上提供的solr中文分词器大多不吃吃6.5以上,会报错(具体错误提示忘了),这里提供高版本,内含使用教程
  3. 所属分类:Java

    • 发布日期:2018-08-29
    • 文件大小:1mb
    • 提供者:yugehasaki666
  1. elasticsearch-ik-6.5.4

  2. elasticsearch-ik 当前使用比较广泛的中文分词器 对应 es-6.5.4
  3. 所属分类:Java

  1. es5.6.8ik分词器.zip

  2. 官网连接不上,借用CSDN的平台分享给大家,elasticsearch-5.6.8.tar.gz对应的IK分词器
  3. 所属分类:平台管理

    • 发布日期:2020-05-12
    • 文件大小:4mb
    • 提供者:shang741815151
  1. ik分词器6.5.4[解压再安装].tar

  2. elasticsearch-analysis-ik-6.5.4.zip, IK分词器, 跟ES版本保持一致6.5.4
  3. 所属分类:算法与数据结构

    • 发布日期:2020-07-18
    • 文件大小:4mb
    • 提供者:qq_15036079
  1. Elasticsearch 6.5.4全套(windows版)

  2. 包含6.5.4版Elasticsearch(zip包) ,kibana客户端 , IK分词器 ,logstash同步数据库工具,数据库连接jar(8.0版)
  3. 所属分类:其它

  1. Mysql实现全文检索、关键词跑分的方法实例

  2. 一、前言 今天一个同事问我,如何使用 Mysql 实现类似于 ElasticSearch 的全文检索功能,并且对检索关键词跑分?我当时脑子里立马产生了疑问?为啥不直接用es呢?简单好用还贼快。但是听他说,数据量不多,客户给的时间非常有限,根本没时间去搭建es,所以还是看一下 Mysql 的全文检索功能吧! MySQL 从 5.7.6 版本开始,MySQL就内置了ngram全文解析器,用来支持中文、日文、韩文分词。在 MySQL 5.7.6 版本之前,全文索引只支持英文全文索引,不支持中文全文索引
  3. 所属分类:其它

    • 发布日期:2020-12-14
    • 文件大小:228kb
    • 提供者:weixin_38597889
  1. 如何在docker容器内部安装kibana分词器

  2. 步骤: 1.在虚拟机目录下新建docker-compose.yml文件,然后进入yml文件编辑 vi docker-compose.yml 2.在yml文件中添加如下代码: version: 3.1 services: elasticsearch: image: daocloud.io/library/elasticsearch:6.5.4 restart: always container_name: elasticsearch ports: - 9200:920
  3. 所属分类:其它

    • 发布日期:2021-01-08
    • 文件大小:40kb
    • 提供者:weixin_38620267
« 12 3 4 5 6 7 8 »