您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 最新Lucene教程

  2. 1、analysis对需要建立索引的文本进行分词、过滤等操作 2、standard是标准分析器 3、document提供对Document和Field的各种操作的支持。 4、index是最重要的包,用于向Lucene提供建立索引时各种操作的支持 5、queryParser提供检索时的分析支持 6、search负责检索 7、store提供对索引存储的支持 8、util提供一些常用工具类和常量类的支持 Ø Lucene中的类主要组成如下: 1)org.apache.1ucene.analysis语
  3. 所属分类:Java

    • 发布日期:2008-10-16
    • 文件大小:154624
    • 提供者:good_kinglee116
  1. Android获取剪切板内容(仿有道复制查词功能)

  2. Android获取剪切板内容(仿有道复制查词功能)Demo。http://blog.csdn.net/sonken_0824/article/details/32111257
  3. 所属分类:Android

    • 发布日期:2014-06-18
    • 文件大小:1048576
    • 提供者:sonken_0824
  1. 同舟CAD——绘图大师

  2. 是AutoCAD二次开发的增值工具,适合于机械类或相关行业设计,倾注诸多资深机械设计师工程绘图经验,不断满足设计人员需求,是CAD工作者以及CAD爱好者不可缺少的精品工具。快速、高效是我们共同的追求!本工具箱包含以下内容: ★粗糙度 智智能化粗糙度标注。可自动检测粗糙度符号的标注方向,记忆上次标注粗糙度的数值、类型和比例,适合不同类型的标注。是机械设计人员不可缺少的工具之一。 ★基准标注 智能标注基准符号,自动检测标注方向。 ★倒角标注 自动测量倒角的大小、角度,标注出符合国标的标注型式。 ★
  3. 所属分类:其它

    • 发布日期:2014-12-24
    • 文件大小:19922944
    • 提供者:xazhji
  1. 中日词典——lingose,屏幕取词,即时翻译

  2. 中日词典 英和辞典界に新風を吹き込んだ大修館がおくる、まったく新しい国語辞典。今までの国語辞典では説明しきれなかった日本語の微妙なニュアンスにまで踏み込み、意味の分類と解説を行った。書き言葉・話し言葉から語を広く収集、誤用情報を充実させ、さらに、広く通用している誤用については積極的に解説、現代日本語の姿を反映させた。他の国語辞典を圧倒する懇切丁寧な語釈と表記情報で、日本語の達人になれる最新最良の一冊。
  3. 所属分类:专业指导

    • 发布日期:2008-11-02
    • 文件大小:3145728
    • 提供者:bhbhsu
  1. ICTCLAS.rar

  2. ICTCLAS.rar 切词工具,词性标注等功能 中科院计算所
  3. 所属分类:专业指导

    • 发布日期:2009-01-07
    • 文件大小:12582912
    • 提供者:wintersong1216
  1. 搜索引擎系统学习与开发总结

  2. 一、搜索引擎概述 3 搜索引擎的发展历史 3 搜索引擎分类 4 搜索引擎组成及工作原理 5 二、网络蜘蛛 6 概述 6 主要组成 6 关键技术 8 经验总结 8 三、切词器 8 概述 8 切分原理 10 经验总结 13 四、索引器 14 概述 14 实现原理 14 经验总结 16 五、查询器 16 概述 16 实现原理 17 经验总结 19 六、系统关键分析 20 七、参考文献 21
  3. 所属分类:网络基础

    • 发布日期:2009-01-13
    • 文件大小:199680
    • 提供者:qcql2013
  1. 搜索引擎开发资料打包

  2. 很难找到的搜索引擎资料,包括源码和中文切词程序
  3. 所属分类:其它

    • 发布日期:2009-03-12
    • 文件大小:8388608
    • 提供者:qxlove
  1. KNN算法聚类(doc格式)

  2. 本文首先对比通用搜索引擎与主题搜索引擎的区别,总结主题搜索引擎的优点;然后介绍目前世界上主题搜索引擎技术的发展状况。接着,综述了面向主题中文搜索引擎的设计,详细介绍涉及该领域的三个核心技术:文档分类技术、中文处理技术和网页搜集预测技术。对于以上三种技术,我们在简述已知算法的基础上,都阐述了具体系统的实现方案。其中中文切词问题作为工作的重点,在文章中有比较详尽的介绍,包括中文处理的背景知识,中文切词软件的基本原理和中文切词词典的改进。
  3. 所属分类:其它

    • 发布日期:2009-04-08
    • 文件大小:352256
    • 提供者:hjjjl
  1. pyltp的安装 包

  2. 支持python3.6的pyltp,可用于实体识别,文本切词等相关工作
  3. 所属分类:Python

    • 发布日期:2018-07-20
    • 文件大小:5242880
    • 提供者:weixin_37471722
  1. 统计学常用英语词汇约800个词

  2. Absolute deviation, 绝对离差 Absolute number, 绝对数 Absolute residuals, 绝对残差 Acceleration array, 加速度立体阵 Acceleration in an arbitrary direction, 任意方向上的加速度 Acceleration normal, 法向加速度 Acceleration space dimension, 加速度空间的维数 Acceleration tangential, 切向加速度 Acce
  3. 所属分类:讲义

    • 发布日期:2018-09-18
    • 文件大小:72704
    • 提供者:yanghefeng22
  1. 将文本复制到剪切板

  2. 写程序菜单的时候突然要用到将选中的数据库中的一项复制到剪切板,并可以粘贴到任何文本框中。简单的操作,简单的代码,但是挺实用的。这个代码百度一下哪哪都是,我就是无聊上传的。我都想把代码贴到资源描述里了,一想不太合适还是正景一点吧。其实50个字的描述对我来说太简单了,我从小语文就好,深得小初高大各个阶段语文老师的喜爱。也不知道有没有人看资源描述,当作文写可能不太好。。但是程序员真的是一个费脑子的工作,还要天天和产品经理,客户进行各种斗争,各种奇葩的要求目不暇给(这个词用的咋样),真的想边上摆个大按
  3. 所属分类:Delphi

    • 发布日期:2018-11-26
    • 文件大小:235520
    • 提供者:xuewuchen
  1. python学习笔记

  2. python的基础笔记,其实实现是个简单版本并不难,文本切成句子,以句子相似性作为相互链接的权值,构造一个矩阵。有了权值矩阵就可以利用pagerank来得到每个句子的最终得分。计算好没个句子的出度入度,给个初始的得分,迭代更新至收敛,得分最高则作为摘要。计算句子相似性有很多办法,切词算集合距离,sentence2vec 算欧式距离等等,切词集合距离的办法比较糙,效果一般,还是考虑了语意相似会好一些。这种办法一般在比较规矩的文档,如新闻,效果还可以
  3. 所属分类:Python

    • 发布日期:2019-01-04
    • 文件大小:463872
    • 提供者:weixin_44239869
  1. VIP学院大数据培训第六期全套视频 (1).rar

  2. 第1天:开学+常见业务+MR 第2天:MR+Hive 第3天:Hive02_03 第4天:scala+spark 第5天:yarn和spark 第6天:LR+商品项目 第7天:数据采集业务+flume 第8天:实时采集kafka+SparkStreaming 第9天:Spark Streaming02+Flink 第10天:streaming补充+Flink 第11天:数据仓库 第12天:数据仓库+Hbase 第13天:协同过滤 第14天:结巴切词+基于内容推荐+项目作业 第15天:隐马HMM
  3. 所属分类:Hadoop

    • 发布日期:2019-05-09
    • 文件大小:305
    • 提供者:u011349099
  1. PHP中文分词代码 v1.0 UTF-8.rar

  2. PHP中文分词代码使用居于unicode的词库,使用反向匹配模式分词,理论上兼容编码更广泛,并且对utf-8编码尤为方便。由于PhpanAlysis是无组件的系统,因此速度会比有组件的稍慢,不过在大量分词中,由于边分词边完成词库载入,因此内容越多,反而会觉得速度越快,这是正常现象,对于支持PHP-APC的服务器,本程序支持对词典进行缓存,这样做之后理论的速度并不慢于那些带组件的分词程序了。 分词系统是基于字符串匹配的分词方法 ,这种方法又叫做机械分词方法,它是按照一定的策略将待分析的汉字串与
  3. 所属分类:其它

    • 发布日期:2019-07-09
    • 文件大小:2097152
    • 提供者:weixin_39841365
  1. 横瓜硬盘搜索引擎 v3.2 免费版.zip

  2. 横瓜硬盘搜索引擎是基于Windows平台的硬盘搜索,最大容量可检索1000万硬盘文件名。对于存有10万个文件规模的硬盘,可在50秒内完成所有架构工作。横瓜硬盘搜索,扫描文件速度约2000个文件/秒,分词速度2500万字/分钟,平均检索时间小于0.001秒。横瓜硬盘搜索PC硬件配置,需要700M内存、空闲硬盘空间1G、文件系统NTFS。横瓜硬盘搜索引擎采用横瓜分布式Map数据库技术、分词索引技术、最大左匹配切词技术、倒排技术、MD5摘要信息抽取技术、新词智能识别技术、 硬盘整理加速技术、疑似垂直
  3. 所属分类:其它

    • 发布日期:2019-07-15
    • 文件大小:3145728
    • 提供者:weixin_39841856
  1. 横瓜文件FTP下载资源搜索服务器 v3.2.zip

  2. 横瓜文件FTP下载资源搜索服务器主要用来架构图片搜索下载、视频搜索下载、图书搜索下载、软件搜索下载、电影搜索下载、MP3搜索下载、音乐搜索下载、游戏搜索下载等任何资源文件的搜索下载服务器。最大并发连接数可达1000,仅依靠一台PC服务器,就可同时为1000个客户提供负载均衡的并发下载服务和检索服务,同时支持断点续传下载、迅雷下载、快车下载、IE浏览器HTTP下载等,在负载均衡方面,将迅雷快车等软件的风暴下载技术斩断成普通HTTP下载,实现了全体资源文件公平公正均衡下载的目标,节省了资源服务商带
  3. 所属分类:其它

    • 发布日期:2019-07-17
    • 文件大小:3145728
    • 提供者:weixin_39840924
  1. Python-百度的中文开源词法分析工具LAC

  2. 中文分词(Word Segmentation)是将连续的自然语言文本,切分出具有语义合理性和完整性的词汇序列的过程。因为在汉语中,词是承担语义的最基本单位,切词是文本分类、情感分析、信息检索等众多自然语言处理任务的基础。
  3. 所属分类:其它

    • 发布日期:2019-08-11
    • 文件大小:87040
    • 提供者:weixin_39840387
  1. R语言文本分析案例词云图.pdf

  2. 见习报告一份数据来自狗熊会。做了词云分析、回归分析。内置R语言代码。 版权声明:代码下载只能自己学习使用,切勿用于商业用途,违者必究。
  3. 所属分类:专业指导

    • 发布日期:2020-04-13
    • 文件大小:741376
    • 提供者:weixin_46111814
  1. 10亿级word2vec构造分布式计算的输入数据.py

  2. 过程:大txt文件拆分成小的txt文件(切词后再存)->小txt文件一个一个读取,构造词典->词典按词频大小降序并把value值置为1,2,3...->读取小txt文件取对应的字典值后保存为数值型的文件
  3. 所属分类:互联网

    • 发布日期:2020-06-11
    • 文件大小:4096
    • 提供者:A147017547
  1. 数据挖掘参考代码.zip

  2. 通过评分与短评数据,构建情感褒贬分析分类器,通过短评数据预测用户“喜欢”or“不喜欢”电影。参考步骤: 1) 数据预处理,生成特征:jieba切词;去停动词;生成词袋、tfidf等特征。 2) 使用分类模型对数据集分类。 分析打分总体情况、有用点评的分析、点评人常居地的分布等,或者其他一些有意义分析,并用可视化的方式展示。
  3. 所属分类:Python

    • 发布日期:2020-08-01
    • 文件大小:8388608
    • 提供者:qq_37041207
« 1 2 3 4 56 7 8 9 10 »