您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 面向主题的中文搜索引擎的设计与实现_陈静_北京大学硕士论文

  2. WWW网络的迅猛增长使得搜索引擎面临了前所未有的挑战,搜索引擎如何适应这种规模的急剧膨胀,成为一个备受关注的问题。面向主题搜索引擎可以有选择性的抓取与主题相关的网页。选取的对象是一个或一组事先预定义的主题,其特征由样本网页标志,而不是关键词。一般性的搜索引擎总是抓取尽量多的网页以满足所有可能的查询请求;而主题搜索被设计为只抓取与选定主题相关的网页。这不仅能够大大减少系统对硬件和网络资源的需求,而且还有助于提高抓取的准确率和搜索结果的更新速度。 本文首先对比通用搜索引擎与主题搜索引擎的区别,总结
  3. 所属分类:其它

    • 发布日期:2009-07-08
    • 文件大小:352256
    • 提供者:rockychan1206
  1. 切词 分词(couwordA)

  2. 最大正向匹配算法实现的中文切词,其中的程序,词库在B里面
  3. 所属分类:VB

    • 发布日期:2009-11-08
    • 文件大小:9216
    • 提供者:lijianpu
  1. 切词 分词(couwordB)

  2. A版本里面的词库,有点大不好传所以分开来传了
  3. 所属分类:VB

    • 发布日期:2009-11-08
    • 文件大小:204800
    • 提供者:lijianpu
  1. ChineseSegmenter 中文切词库

  2. 中文切词库 几十万的汉字匹配量 适用中小企业级另的应用开发
  3. 所属分类:专业指导

    • 发布日期:2007-12-06
    • 文件大小:1048576
    • 提供者:ktyl2000
  1. 中文分词算法介绍、分类详解

  2. 该文档详细介绍了中文分词的原理及相应的技术。文档讲解了最大匹配法(Forward Maximum Matching method, FMM法)、正向最大匹配法(由左到右的方向)、逆向最大匹配法(由右到左的方向)、最少切分(使每一句中切出的词数最小)。
  3. 所属分类:其它

    • 发布日期:2010-04-25
    • 文件大小:110592
    • 提供者:yangyangye
  1. 中文分词中文切词分词

  2. 中文分词源代码,论文全部都有,获得2010界准阴工学院优秀毕业设计 词库高达几十万
  3. 所属分类:专业指导

    • 发布日期:2010-08-13
    • 文件大小:46080
    • 提供者:ars_art
  1. Lucene中文切词(完整版)

  2. 又完整工程,源代码,可直接运行。
  3. 所属分类:C#

    • 发布日期:2008-03-03
    • 文件大小:1048576
    • 提供者:mylove100
  1. PHP中文分词程序 非常优秀特此推荐

  2. 中文切词,非常优秀特此推荐。是目前分词效率较高的算法-Chinese segmentation, hereby commend outstanding. Segmentation is more efficient algorithm
  3. 所属分类:其它

    • 发布日期:2011-08-01
    • 文件大小:708608
    • 提供者:suc88jp
  1. IKAnlyzer中文分词

  2. IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出 了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为 面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。
  3. 所属分类:Java

    • 发布日期:2012-03-13
    • 文件大小:2097152
    • 提供者:mailjava
  1. 中文分词和搜索引擎

  2.  众所周知,英文是以词为单位的,词和词之间是靠空格隔开,而中文是以字为单位,句子中所有的字连起来才能描述一个意思。例如,英文句子I am a student,用中文则为:“我是一个学生”。计算机可以很简单通过空格知道student是一个单词,但是不能很容易明白“学”、“生”两个字合起来才表示一个词。把中文的汉字序列切分成有意义的词,就是中文分词,有些人也称为切词。我是一个学生,分词的结果是:我 是 一个 学生。
  3. 所属分类:其它

    • 发布日期:2013-07-04
    • 文件大小:36864
    • 提供者:dahai1688_6
  1. pscws23-20081221.tar.bz2【中文分词】

  2. php中文分词 ===== PSCWS23 - 说明文档 ===== $Id: readme.txt,v 1.3 2008/12/21 04:37:59 hightman Exp $ [ 关于 PSCWS23 ] PSCWS23 是由 hightman 于 2006 年开发的纯 PHP 代码实现的简易中文分词系统第二和第三版的简称。 PSCWS 是英文 PHP Simple Chinese Words Segmentation 的头字母缩写,它是 SCWS 项目的前身。 现 SCWS 已作为
  3. 所属分类:PHP

    • 发布日期:2013-09-08
    • 文件大小:2097152
    • 提供者:yao__shun__yu
  1. 中文切词C++版本

  2. 中文切词C++版本,是中科院计算所的源代码;可以方便集成到自己的系统中
  3. 所属分类:IT管理

    • 发布日期:2013-12-14
    • 文件大小:2097152
    • 提供者:rpiyi
  1. 庖丁解牛中文分词工具

  2. 庖丁系统是个完全基于lucene的中文分词系统,它就是重新建了一个analyzer,叫做PaodingAnalyzer,这个analyer的核心任务就是生成一个可以切词TokenStream。
  3. 所属分类:Java

    • 发布日期:2014-03-25
    • 文件大小:5242880
    • 提供者:yeruby
  1. 中文分词器

  2. 1.基于 trie 树结构实现高效词图扫描 2.生成所有切词可能的有向无环图 DAG 3.采用动态规划算法计算最佳切词组合 4.基于 HMM 模型,采用 Viterbi (维特比)算法实现未登录词识别
  3. 所属分类:Java

    • 发布日期:2014-10-24
    • 文件大小:4194304
    • 提供者:bany_
  1. 结巴中文切词可用

  2. 结巴中文切词,可以直接用来切中文;txt、csv、excel都行
  3. 所属分类:Python

    • 发布日期:2015-06-13
    • 文件大小:184
    • 提供者:u011659379
  1. 中文切词软件、专业的切词软件,欢迎大家使用

  2. 中文切词软件、专业的切词软件,欢迎大家使用
  3. 所属分类:网络基础

    • 发布日期:2015-07-07
    • 文件大小:3145728
    • 提供者:gongchatc
  1. 结构化感知器进行中文切词

  2. 结构化感知器进行中文切词,自然语言处理
  3. 所属分类:Python

    • 发布日期:2017-01-11
    • 文件大小:4096
    • 提供者:yas12345678
  1. 中文切词软件、专业的切词软件,欢迎大家使用

  2. 比较实用的切词软件,相信你使用之后会喜欢他的,而且完全是免费的
  3. 所属分类:专业指导

    • 发布日期:2009-02-23
    • 文件大小:1048576
    • 提供者:xing602674814
  1. C#中文分词组件源码ChineseSegmentV1.0.3.0

  2. 中文分词是中文搜索引擎提高相关度非常关键的部分。用C#实现的中文分词组件,可以进行中文切词、词频统计、分词排名级别;支持XML词库、文本词库和二进制词库;可以往词库添加新词,过滤重复词,词库重新排序。
  3. 所属分类:C#

    • 发布日期:2009-04-21
    • 文件大小:2097152
    • 提供者:u013080801
  1. Python中文分词库Yaha.zip

  2. "哑哈"中文分词,更快或更准确,由你来定义。通过简单定制,让分词模块更适用于你的需求。 "Yaha" You can custom your Chinese Word Segmentation efficiently by using Yaha 基本功能: 精确模式,将句子切成最合理的词。 全模式,所有的可能词都被切成词,不消除歧义。 搜索引擎模式,在精确的基础上再次驿长词进行切分,提高召回率,适合搜索引擎创建索引。 备选路径,可生成最好的多条切词路径,可在此
  3. 所属分类:其它

    • 发布日期:2019-07-16
    • 文件大小:6291456
    • 提供者:weixin_39841856
« 12 3 4 »