您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 中文自动分词&全文检索@统计工具(GBK版

  2. 本系统具备中文自动分词、全文检索、统计等基本功能,具体介绍如下: 1、中文自动分词 1)能对给定的中文文本进行自动分词、词性一级、词性二级标注; 2)支持大批量文本的自动分词及词性标注处理,可处理各级子文件夹下的文件; 3)能根据待分词及标注文本的类别,加挂用户自定义词典,进一步提高分词和标注的精确度; 4)用户可对系统词典进行扩展,可添加、删除、查看系统词典,可将系统词典输出为TXT文本编辑后再转换为系统用的电子词典; 5)支持人名、地名、机构名等未登录词识别,支持基于GBK字符集的简、繁体
  3. 所属分类:专业指导

    • 发布日期:2010-04-22
    • 文件大小:3145728
    • 提供者:lonewar
  1. 中文分词词库(TXT格式)

  2. 中文分词词库,供分词算法使用。。。。。。。。。。。。。。。。。
  3. 所属分类:其它

    • 发布日期:2010-05-22
    • 文件大小:753664
    • 提供者:larrylin28
  1. Paoding中文分词包-附带实例,参考手册,Lucene实例

  2. 效果体验 使用者第一步最有可能的是想要体验了解庖丁的分词效果。考虑到这样的需求,庖丁提供了一个shell文件,使用者不必写任何代码就可以获得这样的信息。进入Paoding-Analysis分发包,在命令行模式下执行analyzer.bat(windows)或analyzer.sh(linux)即可。下以windows为例: u 显示帮助 E:\Paoding-Analysis>analyzer.bat ? u 分词对话 当没有在命令行参数种输入分词内容或待分词的文章时,analyzer.
  3. 所属分类:Linux

    • 发布日期:2010-06-08
    • 文件大小:5242880
    • 提供者:hpf911
  1. 中文分词词典

  2. 这是前一段时间我在研究中文分词时在网上找到的一个词典,TXT格式的,拿出来分享一下。
  3. 所属分类:专业指导

    • 发布日期:2008-01-31
    • 文件大小:2097152
    • 提供者:luojlu
  1. 刨丁解羊中文分词器-主要用于对网络蜘蛛或网络爬虫抓取的网页进行分词

  2. 刨丁解羊中文分词器,主要用于对网络蜘蛛或网络爬虫抓取的网页进行分词,支持繁体中文分词、简体中文分词、英文分词,是制作通用搜索引擎和垂直搜索引擎的核心组件。该软件在普通PC机器上测试显示:TXT格式正文分词速度约为3000万字/分钟,网页分词速度约为277.8个网页/秒。该软件采用基础词库(63万词语)+扩展词库(用户可手工添加新词)。DLL及OCX调用请联系QQ(601069289)。
  3. 所属分类:网络基础

    • 发布日期:2010-08-30
    • 文件大小:2097152
    • 提供者:henggua
  1. SCWS简体中文分词辞典txt格式

  2. 这是我在研究中文分词时找到的一个辞典。感谢hightman的基础工作。==============================================SCWS-1.x.x 自述文件 (Written by hightman)HomePage: http://www.hightman.cn...[SCWS 简介]SCWS 是 Simple Chinese Words Segmentation 的缩写(简易中文分词系统)。它是一套基于词频词典的机械中文分词引擎,它能将一整段的汉字基本正
  3. 所属分类:专业指导

    • 发布日期:2008-03-15
    • 文件大小:5242880
    • 提供者:oldfox126
  1. SCWS繁体中文分词辞典txt格式

  2. 这是我在研究中文分词时找到的一个辞典。感谢hightman的基础工作。==============================================SCWS-1.x.x 自述文件 (Written by hightman)HomePage: http://www.hightman.cn...[SCWS 简介]SCWS 是 Simple Chinese Words Segmentation 的缩写(简易中文分词系统)。它是一套基于词频词典的机械中文分词引擎,它能将一整段的汉字基本正
  3. 所属分类:专业指导

    • 发布日期:2008-03-15
    • 文件大小:2097152
    • 提供者:oldfox126
  1. 中文分词词库—加三级地名2

  2. 中文分词词库—加三级地名2,词语很全,在网络找到的。
  3. 所属分类:网络基础

    • 发布日期:2010-12-20
    • 文件大小:7340032
    • 提供者:sccgood
  1. 带词频统计的中文分词词典

  2. 这段时间在研究中文分词,在网上找了很久才找到这个词典,是txt格式的,记事本打开后词条与数字中间出现的黑块是占位符,如果用word打开的话就完全看不见的哈,不影响使用,分享了,希望对研究这块的朋友有帮助,如果朋友们有更好的,请告诉我哈,谢谢
  3. 所属分类:专业指导

    • 发布日期:2010-12-20
    • 文件大小:2097152
    • 提供者:wangxisc
  1. freeICTCLAS中科院中文分词(拼音中文输入法设计和源代码).zip

  2. freeICTCLAS中科院中文分词(拼音中文输入法设计和源代码).zip ICTCLAS源码结构 Codes │ ICTCLAS_WIN.cpp Windows界面的程序 │ ICTCLAS_Win.dsp │ ICTCLAS_WIN.dsw │ ICTCLAS_WIN.h │ ICTCLAS_Win.exe 可执行程序 │ ICTCLAS_WinDlg.cpp │ ICTCLAS_WinDlg.h │ resource.h │ StdAfx.cpp │ StdAfx.h │ log.txt
  3. 所属分类:C++

    • 发布日期:2011-05-21
    • 文件大小:2097152
    • 提供者:duizhong
  1. 用VC++做的英文分词程序

  2. 用VC++做的一个英文分词程序。程序运行时,要保证在D盘下有in.txt的文件,其实这个路径可以自行修改的!
  3. 所属分类:C++

    • 发布日期:2011-06-21
    • 文件大小:1048576
    • 提供者:qiaoqiaoshui
  1. 中文分词用的词典文件

  2. 花了几天从各大名牌分词软件中提出的中文词组,已经对词组进行了整理和排序,保存成了三个txt文件,精简:74248个词组、常用:118021个词组、全部:222685个词组、常用标点符号文件共四个文件。
  3. 所属分类:Delphi

    • 发布日期:2011-09-02
    • 文件大小:1048576
    • 提供者:i8013
  1. 中文分词词库整理.rar

  2. 30万 中文分词词库,42537条伪原创词库,dict.txt,fingerDic.txt,httpcws_dict.txt,out.txt,百度分词词库.txt,词库地址.txt,词库下载地址.txt,四十万汉语大词库.txt,四十万可用搜狗txt词库.txt,搜狗词库方法.txt,五笔词库.TXT 解压密码为:www.5eyi.com 想省资源分可以到http://www.5eyi.com/download-sphinx-chinese-word-lexicon-collected/下载
  3. 所属分类:其它

    • 发布日期:2011-09-05
    • 文件大小:6291456
    • 提供者:logken
  1. 简单的中文分词系统

  2. 简单的中文分词,要求安装了JDK,点击运行即可,词汇在TXT中,可以随意更改,希望大家一起学习
  3. 所属分类:Java

    • 发布日期:2011-12-04
    • 文件大小:595968
    • 提供者:baby0118
  1. 四十万条txt分词词库

  2. 四十万条最完整词库,txt格式,分词,词库
  3. 所属分类:C#

    • 发布日期:2012-02-09
    • 文件大小:1048576
    • 提供者:milkff
  1. 中文分词词典TXT版本

  2. 中文分词词典TXT版本 用于词组提取分割
  3. 所属分类:其它

    • 发布日期:2012-10-29
    • 文件大小:2097152
    • 提供者:xmour
  1. ShootSearch 中文分词组件(c#开源)

  2. ShootSearch 中文分词组件(c#开源) 技术支持:support@shootsoft.net http://www.shootsoft.net 分词算法:词库+最大匹配 词库来自www.jesoft.cn,已经过一定的修改 使用说明: 先加载词库,再进行分词.分词过程重载两次:支持回车的和不支持回车的,注意选择! 可以手动添加词语到sDict.txt,不过每次手动修改后需要调用SortDic()方法,否则无法实现最大匹配! sDict.txt的编码为UTF-8! 示例: 文字内容来自
  3. 所属分类:C#

    • 发布日期:2006-08-18
    • 文件大小:1001472
    • 提供者:shootsoft
  1. 横瓜中文分词器

  2. 横瓜中文分词器,主要用于对网络蜘蛛或网络爬虫抓取的网页进行分词,支持繁体中文分词、简体中文分词、英文分词,是制作通用搜索引擎和垂直搜索引擎的核心组件。该软件在普通PC机器上测试显示:TXT格式正文分词速度约为3000万字/分钟,网页分词速度约为277.8个网页/秒。该软件采用基础词库(63万词语)+扩展词库(用户可手工添加新词)。
  3. 所属分类:Web开发

  1. 中文分词用统计词频词典,一词一行

  2. 中文分词用统计词频词典,一词一行,txt文本保存
  3. 所属分类:其它

    • 发布日期:2013-03-27
    • 文件大小:2097152
    • 提供者:cseedwyt
  1. 中文 分词 词库 整理

  2. 30万 中文分词词库,42537条伪原创词库,dict.txt,fingerDic.txt,httpcws_dict.txt,out.txt,百度分词词库.txt,词库地址.txt,词库下载地址.txt,四十万汉语大词库.txt,四十万可用搜狗txt词库.txt,搜狗词库方法.txt,五笔词库.TXT 解压密码为:www.5eyi.com
  3. 所属分类:其它

    • 发布日期:2013-07-03
    • 文件大小:6291456
    • 提供者:mwzit
« 12 3 4 5 6 7 8 9 10 »