您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. pscws23-20081221.tar.bz2【中文分词】

  2. php中文分词 ===== PSCWS23 - 说明文档 ===== $Id: readme.txt,v 1.3 2008/12/21 04:37:59 hightman Exp $ [ 关于 PSCWS23 ] PSCWS23 是由 hightman 于 2006 年开发的纯 PHP 代码实现的简易中文分词系统第二和第三版的简称。 PSCWS 是英文 PHP Simple Chinese Words Segmentation 的头字母缩写,它是 SCWS 项目的前身。 现 SCWS 已作为
  3. 所属分类:PHP

    • 发布日期:2013-09-08
    • 文件大小:2097152
    • 提供者:yao__shun__yu
  1. 中文分词算法的研究与实现-西北大学

  2. 中文分词算法的研究与实现-西北大学硕士学位论文
  3. 所属分类:C++

    • 发布日期:2013-09-16
    • 文件大小:376
    • 提供者:lastdotnet
  1. 中文分词算法的研究与实现-电子科技大学

  2. 中文分词算法的研究与实现-电子科技大学硕士学位论文
  3. 所属分类:其它

    • 发布日期:2013-09-16
    • 文件大小:385
    • 提供者:lastdotnet
  1. 改进的中文分词算法在自动答疑系统中的应用研究

  2. 改进的中文分词算法在自动答疑系统中的应用研究
  3. 所属分类:C++

    • 发布日期:2013-09-16
    • 文件大小:385
    • 提供者:lastdotnet
  1. java中文分词

  2. java 中文分词 比较好用 包括分词器的说明文档
  3. 所属分类:Java

    • 发布日期:2013-10-08
    • 文件大小:391168
    • 提供者:jiangjingchi118
  1. lucene 中文分词

  2. lucene 中文分词小案例,实现中文检索,最近看到lucene顺便自己动手做了一下感觉挺实用的,案例很简单,很容易看懂
  3. 所属分类:Java

    • 发布日期:2013-10-11
    • 文件大小:22020096
    • 提供者:zjd0827
  1. mm中文分词器

  2. 目前最新的中文分词器,可以动态的添加新词,内置有关于淘宝的词库,方便lucene开发或基于lucene的solr的开发用户使用。
  3. 所属分类:Web开发

    • 发布日期:2013-10-22
    • 文件大小:296960
    • 提供者:beijing20120926
  1. C#中文分词技术源码

  2. C#中文分词技术源码
  3. 所属分类:C#

    • 发布日期:2013-10-23
    • 文件大小:2097152
    • 提供者:darren10001
  1. 中文分词器IKAnalyzer 3.2.8

  2. 中文分词器IKAnalyzer 3.2.8和solr 3.5整合
  3. 所属分类:其它

    • 发布日期:2013-10-24
    • 文件大小:1048576
    • 提供者:ailong1011
  1. 计算语言学中文分词技术

  2. 何为分词?中文分词与其他的分词又有什么不同呢?分词就是将连续的字序列按照一定的规范重新组合成词序列的过程。我们知道,在英文的行文中,单词之间是以空格作为自然分界符的,而中文只是字、句和段可以通过明显的分界符来简单划界,唯独词没有一个形式上的分界符,虽然英文也同样存在短语的划分问题,但是在词这一层上,中文比之英文要复杂的多、困难的多。
  3. 所属分类:专业指导

    • 发布日期:2008-09-24
    • 文件大小:144384
    • 提供者:ctguwy
  1. IK Analyzer2012FF 中文分词器

  2. IK Analyzer中文分词器2012 FF表示for 4 可支持lucene4.0 solr4.0 自带词库27万多条
  3. 所属分类:Java

    • 发布日期:2013-10-27
    • 文件大小:2097152
    • 提供者:bitree3078
  1. 英文词根还原和中文分词系统

  2. 本系统是基于JAVA SWing的自然语言处理系统,可进行中文分词和英文词根还原。只提供部分核心函数,和设计报告。如需要完整的设计,请留言。
  3. 所属分类:其它

    • 发布日期:2013-11-01
    • 文件大小:153600
    • 提供者:u011321908
  1. 中文分词程序Python版

  2. 中文分词程序Python版,算法是正向最大匹配 效果不错,亲自编写的
  3. 所属分类:Python

    • 发布日期:2013-11-01
    • 文件大小:3145728
    • 提供者:sky_hiter
  1. 中科院中文分词器jar包

  2. 中科院开发比较好的中文分词器,java和c++都可以使用
  3. 所属分类:Java

    • 发布日期:2013-11-03
    • 文件大小:8388608
    • 提供者:u012707871
  1. 中文分词处理源代码C++

  2. 利用到树的中文分词方法,通过C++实验,带有详细注释,用于中文分词的学习
  3. 所属分类:其它

    • 发布日期:2013-11-05
    • 文件大小:46080
    • 提供者:u010413243
  1. java中文分词

  2. java中文分词工具,下载后有两个压缩文件,解压导入到myeclipse中即可
  3. 所属分类:Java

    • 发布日期:2013-11-14
    • 文件大小:4194304
    • 提供者:hnhcc39
  1. java中文分词

  2. java 中文分词 正向最大匹配 带词库
  3. 所属分类:Java

    • 发布日期:2013-11-15
    • 文件大小:388096
    • 提供者:liuzc120
  1. 庖丁中文分词

  2. 庖丁中文分词JAR包及使用说明. 用于对中文文章进行分词。基于lucene的中文分词工具。
  3. 所属分类:Java

    • 发布日期:2013-11-18
    • 文件大小:3145728
    • 提供者:jiaopihai
  1. 中文分词 最大匹配法

  2. 中文分词 最大匹配法
  3. 所属分类:Java

    • 发布日期:2013-11-24
    • 文件大小:2048
    • 提供者:u012815217
  1. 中文分词的正向和反向最大匹配算法

  2. 在一个已经语料库的基础上,进行词频统计,然后根据统计的词用正向和反向最大匹配算法进行中文分词。
  3. 所属分类:C/C++

    • 发布日期:2013-11-25
    • 文件大小:3145728
    • 提供者:u012029576
« 1 2 ... 9 10 11 12 13 1415 16 17 18 19 ... 50 »