您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. IKAnalyzer1.4分词

  2. IKAnalyzer是一个基于Lucene的中文分词库,最新V1.4版的改进包括 1.修订特定情况下数量词切分造成指针越界异常的 BUG 2.进一步优化算法效率 3.优化词典 4.对英文和数词进行分割处理 IKAnalyzer基于lucene2.0版本API开发,实现了以词典分词为基础的正反向全切分算法,是Lucene Analyzer接口的实现
  3. 所属分类:其它

    • 发布日期:2009-07-04
    • 文件大小:868352
    • 提供者:sxd147635549
  1. 红宝书 基础词 第二节 练习题及答案详解.pdf

  2. 《红宝书》基础词 第二节 练习题及答案详解
  3. 所属分类:专业指导

    • 发布日期:2009-07-11
    • 文件大小:302080
    • 提供者:odyssay
  1. IKAnalyzer分词

  2. IKAnalyzer基于lucene2.0版本API开发,实现了以词典分词为基础的正反向全切分算法。其中提供的分词算法有:最大全切分,细粒度全切分。
  3. 所属分类:其它

    • 发布日期:2007-09-27
    • 文件大小:868352
    • 提供者:cuiyan3327
  1. csw5.0中文分词组件

  2. 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自动摘要、自动分类及信息加工处理等各个领域。 二、本组件特点: 1.适应性强 本组全部件采用
  3. 所属分类:C#

    • 发布日期:2009-09-01
    • 文件大小:3145728
    • 提供者:madl_lxj_163
  1. 中文分词的切分词典(词性标注,数据库为基础的文本分类检索过滤

  2. 用于中文分词的切分词典,还有词性标注,以这个词典数据库为基础建立文本分类,文本检索或文本过滤可以节省很多时间.很全,强烈推荐
  3. 所属分类:专业指导

    • 发布日期:2009-09-21
    • 文件大小:218112
    • 提供者:manuxiao
  1. 关于中文信息分类的分词算法(实现信息过滤中的分词分词)

  2. 关于中文信息分类的分词算法,他实现了信息过滤中的分词,为信息过滤的分类打下基础
  3. 所属分类:其它

    • 发布日期:2009-09-21
    • 文件大小:343040
    • 提供者:manuxiao
  1. c语言基础入门学习。。。。

  2. 跳转到: 导航, 搜索 跳过字词转换说明 汉漢▼▲为了阅读方便,本文使用全文手工转换。转换内容: 本文采用电脑和信息技术组全文转换 [查看] • [编辑] • [强制刷新] 以下为本条目单独的全文转换,请从本页面进行编辑: 原文:文件;简体:文件;繁體:档; 当前用字模式下显示为→文件 原文:递归;简体:递归;繁體:遞迴; 当前用字模式下显示为→递归 原文:无符号整数;简体:无符号整数;繁體:無號整數; 当前用字模式下显示为→无符号整数 原文:表达式;简体:表达式;繁體:運算式; 当前用字模式
  3. 所属分类:C

    • 发布日期:2009-12-20
    • 文件大小:605184
    • 提供者:ly104
  1. 调用海量智能分词研究版的dll获取分词的结果(C#)

  2. 中文分词是中文搜索引擎的基础,主要应用在信息检索、信息挖掘、中外文对译、中文校对、自动聚类、自动分类等很多方面. 这个是我参照VC的例子修改的C#版本。
  3. 所属分类:C#

    • 发布日期:2009-12-22
    • 文件大小:6291456
    • 提供者:new_sky_hony
  1. ICTCLAS 中文分词

  2. 中文词法分析是中文信息处理的基础与关键。中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级6次,目前已经升级到了ICTCLAS3.0。ICTCLAS3.0分词速度单机996KB/s,分词精度98.45%,API不超过
  3. 所属分类:嵌入式

    • 发布日期:2010-05-10
    • 文件大小:5242880
    • 提供者:GenesisBoy
  1. 中文分词词典 中文自然语言处理基础

  2. 22万词条,供大家学习使用。中文分词词典 中文自然语言处理基础
  3. 所属分类:专业指导

    • 发布日期:2010-05-18
    • 文件大小:2097152
    • 提供者:sumoon2002
  1. 《云计算入门指南》云计算在许多方面只是互联网的一个比喻词

  2. 云计算在许多方面只是互联网的一个比喻词,亦即计算和数据资源 日益迁移到 Web 上的比喻词。不过,区别也是存在的:云计算代 表网络计算价值的一个新的临界点。它提供更高的效率、巨大的可 扩展性和更快、更容易的软件开发。其中心内容为新的编程模型、 新的 IT 基础设施以及实现新的商业模式。
  3. 所属分类:网络基础

    • 发布日期:2010-06-08
    • 文件大小:784384
    • 提供者:chen999jiao
  1. 刨丁解羊中文分词器-主要用于对网络蜘蛛或网络爬虫抓取的网页进行分词

  2. 刨丁解羊中文分词器,主要用于对网络蜘蛛或网络爬虫抓取的网页进行分词,支持繁体中文分词、简体中文分词、英文分词,是制作通用搜索引擎和垂直搜索引擎的核心组件。该软件在普通PC机器上测试显示:TXT格式正文分词速度约为3000万字/分钟,网页分词速度约为277.8个网页/秒。该软件采用基础词库(63万词语)+扩展词库(用户可手工添加新词)。DLL及OCX调用请联系QQ(601069289)。
  3. 所属分类:网络基础

    • 发布日期:2010-08-30
    • 文件大小:2097152
    • 提供者:henggua
  1. 红阳搜狗竞价相关词批量获取工具

  2. 批量导入基础词,利用搜狗竞价后台的关键词工具,批量获取相关关键词、搜索量及竞争激烈程序,可去除重复关键词,并可导出相关词
  3. 所属分类:其它

    • 发布日期:2012-12-10
    • 文件大小:412672
    • 提供者:fuziy
  1. 红阳百度竞价相关词批量获取工具

  2. 输入基础词,利用百度竞价后台的关键词工具,批量获取相关关键词,并可导出相关词
  3. 所属分类:其它

    • 发布日期:2012-12-10
    • 文件大小:470016
    • 提供者:fuziy
  1. 横瓜中文分词器

  2. 横瓜中文分词器,主要用于对网络蜘蛛或网络爬虫抓取的网页进行分词,支持繁体中文分词、简体中文分词、英文分词,是制作通用搜索引擎和垂直搜索引擎的核心组件。该软件在普通PC机器上测试显示:TXT格式正文分词速度约为3000万字/分钟,网页分词速度约为277.8个网页/秒。该软件采用基础词库(63万词语)+扩展词库(用户可手工添加新词)。
  3. 所属分类:Web开发

  1. SEO发词工具

  2. 刨丁解羊中文分词器,主要用于对网络蜘蛛或网络爬虫抓取的网页进行分词,支持繁体中文分 词、简体中文分词、英文分词,是制作通用搜索引擎和垂直搜索引擎的核心组件。该软件在普 通PC机器上测试显示:TXT格式正文分词速度约为3000万字/分钟,网页分词速度约为277.8个 网页/秒。该软件采用基础词库(63万词语)+扩展词库(用户可手工添加新词)。DLL及OCX 调用请联系QQ(601069289)。
  3. 所属分类:网络基础

    • 发布日期:2014-08-28
    • 文件大小:57344
    • 提供者:hongling2014
  1. 经过大量整理的“拼音加加词库ver2.0”(注音不准确打我屁股)

  2. 不知道怎么更新上次上传的资源,那就再上传新版本吧。修正了第一个版本中的一些注音错误,自认为比较精准了,并且增加了几万条词汇。注音不准确打我屁股,这次是认真的。 包含的文件如下,互不包含: ~基础词库.txt ~扩充词库.txt ~扩充词库1.txt ~扩充词库2.txt ~扩充词库3.txt 地名.txt 机构.txt 经管.txt 理工.txt 农业.txt 人名.txt 文史.txt 医学.txt 艺术.txt 影视剧名.txt 哲学心理学法律.txt 说明: 1、词库的原出处比较杂,没有
  3. 所属分类:其它

    • 发布日期:2018-01-02
    • 文件大小:34603008
    • 提供者:langeryang1
  1. 红阳百度竞价相关词批量获取工具V2012 build 09.21.rar

  2. 可批量导入基础词,然后利用百度竞价推广后台自带的关键词工具批量获取到相关词,并可导出。
  3. 所属分类:其它

    • 发布日期:2019-07-15
    • 文件大小:397312
    • 提供者:weixin_39840924
  1. 红阳搜狗竞价相关词批量获取工具.rar

  2. 批量导入基础词,利用搜狗竞价后台的关键词工具,批量获取相关关键词、搜索量及竞争激烈程序,可去除重复关键词,并可导出相关词。
  3. 所属分类:其它

    • 发布日期:2019-07-15
    • 文件大小:370688
    • 提供者:weixin_39841856
  1. QQ拼音输入法200万大词库.txt

  2. QQ拼音输入法200万大词库包括了微软拼音输入法、百度输入法、搜狗输入法等主流输入法的基础词库,以及一些大型分类词库的合成词库。系采用输入法格式转换器将其他输入法的词库转换成为QQ输入法的词库格式。词库的使用方法很简单,在QQ输入法状态栏上按右键,点击“属性设置-词库”,在“中文用户词库”中点击“导入”即可。完成导入之后,您的QQ输入法将拥有至少200万的超大词库,打起字来一定更加得心应手,不必再手忙脚乱全拼造词了。独家资源。转载请注明出处。
  3. 所属分类:其它

    • 发布日期:2020-09-04
    • 文件大小:12582912
    • 提供者:YSCCTV
« 12 3 4 5 6 7 8 9 10 ... 50 »