您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 基于隐马模型的中国人名自动识别研究

  2. 中国人名的识别是中文未登录词识别的重点和难点,目前的解决方案自身存在一些本质的缺陷,实际效果还难以满足实际需求。本文提出了一种基于角色标注的中国人名自动识别方法。即:利用从语料库中自动抽取的角色信息,采取Viterbi算法对切词结果进行角色标注,在角色序列的基础上,进行模式最大匹配,最终实现中国人名的识别。通过对16M字节真实语料库的封闭与开放测试,该方法取得了接近98%的召回率,准确率也得到了实际提高。实验数据证明:该方法是行之有效、能够成功解决中国人名的自动识别问题。
  3. 所属分类:其它

    • 发布日期:2009-07-05
    • 文件大小:89088
    • 提供者:softloveman
  1. ppc 手机酷狗 输入法

  2. 1.核心输入 1.1 支持拼音词组输入、智能英文输入、英文字母输入和数字输入4种输入状态; 1.2 支持汉字、词组的全拼和简拼输入,以及支持人工添加分隔符; 1.3 支持汉字拼音模糊音的设置; 1.4 支持基于词库的中文联想功能,可设置关闭联想(默认)或打开; 1.5 支持词库更新升级,获取最新流行词条; 1.6 完善的词条排序算法,智能调整词频; 1.7 支持用户自造词及其删除; 1.8 支持符号表的符号输入及符号表的锁定; 1.9 支持符号表情自定义; 2.界面和操作 2.1 采用虚拟软键
  3. 所属分类:其它

    • 发布日期:2009-08-19
    • 文件大小:1048576
    • 提供者:haizon
  1. A4输入法适用多普达D810

  2. A4功能特色:   1)流畅:类似电脑的词句输入法,操作便捷,能够充分发挥全键盘手机的打字优势。   2)快捷:支持简拼输入,中英文快速混合输入,繁简字自动转换,表情符号快速输入。   3)智能:拥有自动记忆、自动调整字频、模糊音设置等智能化特性。   4)个性:提供复制粘贴、状态管理、界面设置、自造词管理等辅助功能,使手机文本输入更加个性化。   ---------------------------------------------------------------   A4安装流程
  3. 所属分类:C

    • 发布日期:2009-09-17
    • 文件大小:1048576
    • 提供者:orientalwt
  1. 切词 分词(couwordA)

  2. 最大正向匹配算法实现的中文切词,其中的程序,词库在B里面
  3. 所属分类:VB

    • 发布日期:2009-11-08
    • 文件大小:9216
    • 提供者:lijianpu
  1. 切词 分词(couwordB)

  2. A版本里面的词库,有点大不好传所以分开来传了
  3. 所属分类:VB

    • 发布日期:2009-11-08
    • 文件大小:204800
    • 提供者:lijianpu
  1. sogo实验室中文字库

  2. sogo实验室中文字库,可用于中文搜索切词使用
  3. 所属分类:其它

    • 发布日期:2010-01-15
    • 文件大小:2097152
    • 提供者:bjsuo
  1. ChineseSegmenter 中文切词库

  2. 中文切词库 几十万的汉字匹配量 适用中小企业级另的应用开发
  3. 所属分类:专业指导

    • 发布日期:2007-12-06
    • 文件大小:1048576
    • 提供者:ktyl2000
  1. 中文分词中文切词分词

  2. 中文分词源代码,论文全部都有,获得2010界准阴工学院优秀毕业设计 词库高达几十万
  3. 所属分类:专业指导

    • 发布日期:2010-08-13
    • 文件大小:46080
    • 提供者:ars_art
  1. 基于新的关键词提取方法的快速文本分类系统

  2. !) 文档中文信息的切词 1) 文档中文信息的切词 1.1新型机器词典的建立 1.2动词词典、虚词词典和停用词词典的建立依据 1.3基于“小容量”词库的切分技术 1.4三种切分的比对及相关规则的建立 2) 进一步过滤关键词:CD)ED 算法及其改进 3) kNN(k-Nearest-Neighbor)分类算法
  3. 所属分类:其它

    • 发布日期:2010-11-09
    • 文件大小:116736
    • 提供者:qdfch
  1. ghostcat源码(附带实例)

  2. -判断矢量边缘实现不规则物品碰撞检测(非位图) -高效位图碰撞及重叠矢量检测 -A星,深/广度,2D/3D/路点,寻路方式统一处理。 -二次贝尔法曲线,按长度切割和计算法线,光滑曲线拟合(过点或者不过点) -SWF解析器,从ByteArray中播放声音,直接控制AVM1的动画类容。 -丰富的文本缓动,部分文字Filter,渐变色文字,字符差异对比,ANSI转码,URL解码,中文数字,拼音码,这是一个单独的底层包 -完全由FLASH实现的拼音输入法,需要加载200K的词库,光标跟随并可词语输入(
  3. 所属分类:Actionscript

    • 发布日期:2011-09-08
    • 文件大小:13631488
    • 提供者:lili2lili
  1. pscws23-20081221.tar.bz2【中文分词】

  2. php中文分词 ===== PSCWS23 - 说明文档 ===== $Id: readme.txt,v 1.3 2008/12/21 04:37:59 hightman Exp $ [ 关于 PSCWS23 ] PSCWS23 是由 hightman 于 2006 年开发的纯 PHP 代码实现的简易中文分词系统第二和第三版的简称。 PSCWS 是英文 PHP Simple Chinese Words Segmentation 的头字母缩写,它是 SCWS 项目的前身。 现 SCWS 已作为
  3. 所属分类:PHP

    • 发布日期:2013-09-08
    • 文件大小:2097152
    • 提供者:yao__shun__yu
  1. scws23-php

  2. ===== PSCWS23 - 说明文档 ===== $Id: readme.txt,v 1.3 2008/12/21 04:37:59 hightman Exp $ [ 关于 PSCWS23 ] PSCWS23 是由 hightman 于 2006 年开发的纯 PHP 代码实现的简易中文分词系统第二和第三版的简称。 PSCWS 是英文 PHP Simple Chinese Words Segmentation 的头字母缩写,它是 SCWS 项目的前身。 现 SCWS 已作为 FTPHP 项目
  3. 所属分类:PHP

    • 发布日期:2015-03-24
    • 文件大小:3145728
    • 提供者:u014581691
  1. C#中文分词组件源码ChineseSegmentV1.0.3.0

  2. 中文分词是中文搜索引擎提高相关度非常关键的部分。用C#实现的中文分词组件,可以进行中文切词、词频统计、分词排名级别;支持XML词库、文本词库和二进制词库;可以往词库添加新词,过滤重复词,词库重新排序。
  3. 所属分类:C#

    • 发布日期:2009-04-21
    • 文件大小:2097152
    • 提供者:u013080801
  1. PHP中文分词代码 v1.0 UTF-8.rar

  2. PHP中文分词代码使用居于unicode的词库,使用反向匹配模式分词,理论上兼容编码更广泛,并且对utf-8编码尤为方便。由于PhpanAlysis是无组件的系统,因此速度会比有组件的稍慢,不过在大量分词中,由于边分词边完成词库载入,因此内容越多,反而会觉得速度越快,这是正常现象,对于支持PHP-APC的服务器,本程序支持对词典进行缓存,这样做之后理论的速度并不慢于那些带组件的分词程序了。 分词系统是基于字符串匹配的分词方法 ,这种方法又叫做机械分词方法,它是按照一定的策略将待分析的汉字串与
  3. 所属分类:其它

    • 发布日期:2019-07-09
    • 文件大小:2097152
    • 提供者:weixin_39841365
  1. Python中文分词库Yaha.zip

  2. "哑哈"中文分词,更快或更准确,由你来定义。通过简单定制,让分词模块更适用于你的需求。 "Yaha" You can custom your Chinese Word Segmentation efficiently by using Yaha 基本功能: 精确模式,将句子切成最合理的词。 全模式,所有的可能词都被切成词,不消除歧义。 搜索引擎模式,在精确的基础上再次驿长词进行切分,提高召回率,适合搜索引擎创建索引。 备选路径,可生成最好的多条切词路径,可在此
  3. 所属分类:其它

    • 发布日期:2019-07-16
    • 文件大小:6291456
    • 提供者:weixin_39841856
  1. 配置好的傻瓜化小狼毫全拼+多种双拼+五笔86-98+笔画输入法v200312 - 17种方案

  2. 简介 这是一套按照绝大多数人习惯配置优化好的小狼毫。 小狼毫是一款优秀的开源免费输入法平台,可定制性极强,无任何广告骚扰和隐私泄露的风险,但要配置好它,对于不少人是比较困难的。为此,我们把它进行了全方位配置,以做到各种需求都可拿来即用,不需折腾。 对于喜欢折腾的朋友,本套小狼毫的所有方案和码表都是开放的,同时附带了丰富的功能导向的修改指南,非常方便二次修改。 主要特色 1.包含86版五笔、98版五笔;全拼、双拼(几乎囊括当前所有主流双拼方案);五笔画、手写(方便输入疑难生僻字);快
  3. 所属分类:桌面系统

    • 发布日期:2020-03-12
    • 文件大小:26043084
    • 提供者:emca
  1. jieba库常用函数及解析实例

  2. 中文文本需要通过分词获得单个的词语 jieba是优秀的中文分词第三方库,需要额外安装 在(cmd命令行)情况下 运行 pip install jieba 进行安装 jieba分词原理 利用一个中文词库,确定汉字之间的关联概率 汉字间概率大的组成词组,形成分词结果 除了分词,用户还可以添加自定义的词组 jieba分词的三种模式:精确模式、全模式、搜索引擎模式 精确模式:把文本精确的切分开,不存在冗余单词 全模式:把文本中所有可能的词语都扫描出来,有冗余 搜索引擎模式:在精确模式基础上,对长词再次切
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:33792
    • 提供者:weixin_38609002
  1. Python jieba库用法及实例解析

  2. 1、jieba库基本介绍 (1)、jieba库概述 jieba是优秀的中文分词第三方库 – 中文文本需要通过分词获得单个的词语 – jieba是优秀的中文分词第三方库,需要额外安装 – jieba库提供三种分词模式,最简单只需掌握一个函数 (2)、jieba分词的原理 Jieba分词依靠中文词库 – 利用一个中文词库,确定汉字之间的关联概率 – 汉字间概率大的组成词组,形成分词结果 – 除了分词,用户还可以添加自定义的词组 jieba库使用说明 (1)、jieba分词的三种模式
  3. 所属分类:其它

    • 发布日期:2021-01-02
    • 文件大小:258048
    • 提供者:weixin_38622849
  1. C#中文分词组件源码ChineseSegment v1.0.3.0

  2. 中文分词是中文搜索引擎提高相关度非常关键的部分。用C#实现的中文分词组件,可以进行中文切词、词频统计、分词排名级别;支持XML词库、文本词库和二进制词库;可以往词库添加新词,过滤重复词,词库重新排序。
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:2097152
    • 提供者:weixin_38612648
  1. 开源php中文分词系统SCWS安装和使用实例

  2. 一、SCWS简介 SCWS 是 Simple Chinese Word Segmentation 的首字母缩写(即:简易中文分词系统)。这是一套基于词频词典的机械式中文分词引擎,它能将一整段的中文文本基本正确地切分成词。 词是中文的最小语素单位,但在书写时并不像英语会在词之间用空格分开, 所以如何准确并快速分词一直是中文分词的攻关难点。SCWS 采用纯 C 语言开发,不依赖任何外部库函数,可直接使用动态链接库嵌入应用程序, 支持的中文编码包括 GBK、UTF-8 等。此外还提供了 PHP 扩展模
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:63488
    • 提供者:weixin_38581405
« 12 »