您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 支持英文数字中文混合分词-实现很多功能非常强大!

  2. 支持英文数字中文混合分词 常用的数量和人名的匹配 超过22万词的词库整理 实现正向最大匹配算法 智能数字,日期,人名识别。分词算法:词库+最大匹配。具体的里面有非常详尽的说明文档
  3. 所属分类:其它

    • 发布日期:2009-09-21
    • 文件大小:43kb
    • 提供者:manuxiao
  1. 基于条件随机场的中文人名识别

  2. 根据中文人名的特点, 利用条件随机场模型进行 人名识别
  3. 所属分类:专业指导

    • 发布日期:2011-03-24
    • 文件大小:120kb
    • 提供者:zdl123456789
  1. 有关词性标注及中文人名、机构名识别的源代码

  2. 一个集分词、词性标注和依存句法分析的强大的工具包,能够帮助你识别中文人名、机构名。
  3. 所属分类:C++

    • 发布日期:2011-09-03
    • 文件大小:14mb
    • 提供者:haobufei
  1. ICTCLAS 中文分词组件 for Asp.net版

  2. 全球最受欢迎的汉语分词开源系统 获得首届国际分词大赛综合排名第一,国家973评测第一名 人名识别、地名识别、组织机构名识别 支持行业词典、用户自定义词典 多级词性标注 关键词提取、指纹提取
  3. 所属分类:Web开发

    • 发布日期:2011-12-10
    • 文件大小:2mb
    • 提供者:zfqok
  1. 基于N最短路径方法与中国人名 识别的中文分词系统

  2. 采取基于N-最短路径方法的中文词语粗分模型对中文文本进行粗切分,采取Viterbi算法对切分结果进行角色标注,在角色序列的基础上,进行模式最大匹配,最终实现中国人名的识别
  3. 所属分类:专业指导

    • 发布日期:2012-09-25
    • 文件大小:345kb
    • 提供者:danisein
  1. 中文人名识别-哈工大软件学院中文信息处理刘秉权

  2. 中文人名识别 哈工大 软件学院 中文信息处理 刘秉权 java
  3. 所属分类:Java

    • 发布日期:2012-11-17
    • 文件大小:2mb
    • 提供者:sunchuanleihit
  1. ShootSearch 中文分词组件(c#开源)

  2. ShootSearch 中文分词组件(c#开源) 技术支持:support@shootsoft.net http://www.shootsoft.net 分词算法:词库+最大匹配 词库来自www.jesoft.cn,已经过一定的修改 使用说明: 先加载词库,再进行分词.分词过程重载两次:支持回车的和不支持回车的,注意选择! 可以手动添加词语到sDict.txt,不过每次手动修改后需要调用SortDic()方法,否则无法实现最大匹配! sDict.txt的编码为UTF-8! 示例: 文字内容来自
  3. 所属分类:C#

    • 发布日期:2006-08-18
    • 文件大小:978kb
    • 提供者:shootsoft
  1. 中文分词的小系统

  2. 中文分词得小系统,基本功能已实现,但还有很多地方有待改进,没有实现自动学习,人名识别等功能
  3. 所属分类:C++

    • 发布日期:2013-02-19
    • 文件大小:1mb
    • 提供者:qq1377203712
  1. Ansj中文分词(强大)

  2. Ansj中文分词是一款纯Java、主要用于自然语言处理、高精度的中文分词工具,目标是“准确、高效、自由地进行中文分词”。 内容简介:http://www.iteye.com/magazines/102#234 此分词具有自己学习的功能,所以拜托大家不要.乱提交数据.会带坏人家的.说着神秘.其实是一种机器学习动态规划模型!如果你发现此模式分词存在问题.可以看.新词发现.是此分词的初始版本! 此分词保证了准确率,具有人名识别的功能! 此分词结果,具有新词发现,人名识别,机构名识别.也许准确率稍差.
  3. 所属分类:Java

    • 发布日期:2013-06-21
    • 文件大小:13mb
    • 提供者:kutekute
  1. 中文人名自动识别的一种有效方法

  2. 中文信息计算机自动处理的研究已有几十年的 历史 , 但至今仍有许多技术难题没有得到很好解 决 , 中文姓名自动识别问题就是其中的一个。由于 它与中文文本的自动分词一样 , 属于中文信息处理 的基础研究领域 , 因而它的研究成果直接影响到中 文信息的深层次研究。汉语的自身特点使得中文信 息自动处理大多是先对要处理的文本进行自动分词 (加入显式分割符) , 然后再在分词的基础上进行词 法、语法、语义等方面的深入分析。而在分词阶 段 , 文本中的人名、地名以及其它专有名词和生词 大多被切分成单字词
  3. 所属分类:专业指导

    • 发布日期:2008-10-16
    • 文件大小:83kb
    • 提供者:yxh0612
  1. 中文人名识别

  2. 中文姓名的拆分算法
  3. 所属分类:其它

    • 发布日期:2014-08-04
    • 文件大小:83kb
    • 提供者:liugenhua
  1. 基于类向量模型的中文姓名识别研究

  2. 汉语自动词法分析是文本分类、信息检索、对话问答、机器 翻译等中文信息处理任务的基础。由于汉语的词与词之问没 有明确的分割符,汉语词法分析首先面临着自动分词的问题, 而专名(人名、地名、机构名、时间表达、数字表达等)识别则是 汉语自动分词的难点之一。专名能否正确识别直接影响分词 的效果。中文姓名识别是专名识别的一个领域,姓名在专名中 占有很大比例。统计显示:中文姓名占专名的15%⋯ 。可见, 中文姓名的自动识别对于汉语专名识别以及自动分词具有重 要意义。
  3. 所属分类:C#

    • 发布日期:2014-09-02
    • 文件大小:187kb
    • 提供者:jack_liu_2007
  1. ktdict lucene.net 中文分词器

  2. ktdict 中文分词器 一个开源的C#.net编写的,分词准确率大于90%,分词速度非常快,支持人名识别,词性标注,词频判断,未登录词识别,字典管理,Lucene.net接口
  3. 所属分类:C#

    • 发布日期:2008-10-30
    • 文件大小:3mb
    • 提供者:zhengdjin
  1. Ansj中文分词

  2. Ansj中文分词是一个完全开源的、基于Google语义模型+条件随机场模型的中文分词的Java实现,具有使用简单、开箱即用等特点。 Ansj分词速度达到每秒钟大约100万字左右(Mac Air下测试),准确率能达到96%以上。 Ansj 1.41版本的新增功能 •增加了调用文档说明 •调整了关键词抽取 •增加了摘要计算 •关键词标红 •大幅度提高了命名实体识别 •对于词性标注提供了基于概率的快速标注方式.依旧保留给予隐马模型的词性标注. •修复了目前已知的所有bug •大量修正了之前默认用户自
  3. 所属分类:互联网

    • 发布日期:2015-07-10
    • 文件大小:43mb
    • 提供者:katrina1rani
  1. jcseg-1.9.7.zip

  2. Jcseg是基于mmseg算法的一个轻量级开源中文分词器,同时集成了关键字提取,关键短语提取,关键句子提取和文章自动摘要等功能,并且提供了最新版本的lucene, solr, elasticsearch的分词接口, Jcseg自带了一个 jcseg.properties文件用于快速配置而得到适合不同场合的分词应用,例如:最大匹配词长,是否开启中文人名识别,是否追加拼音,是否追加同义词等! PS:压缩包中含有jcseg-core-1.9.7.jar、jcseg-analyzer-1.9.7.ja
  3. 所属分类:Java

    • 发布日期:2015-12-17
    • 文件大小:804kb
    • 提供者:li277967151
  1. 中文分词引擎

  2. 内置25 万优选基本词条,包括行业专业词汇,及新兴网络用语。 多模式复合识别算法,能有效识别中英文特殊语法习惯。 多元歧义自动识别,有效提高分词的准确性。 改进的中文人名(汉族)识别算法。 自动过滤无效字符,支持全半角和通配符等搜索引擎分词习惯。 支持外挂扩展词库,支持扩展敏感词过滤,支持对内存词库直接操作。 词库载入及分词速度较V1 / V2 有极大提高。 使用简单,只需一个DLL 文件,无需任何额外的数据系统支持。
  3. 所属分类:其它

    • 发布日期:2007-07-22
    • 文件大小:1mb
    • 提供者:xianchaoliu
  1. 中文人名语料库r.zip

  2. 中文人名语料库。中文姓名,姓氏,名字,称呼,日本人名,翻译人名,英文人名。可用于中文分词、人名实体识别。
  3. 所属分类:其它

    • 发布日期:2020-01-02
    • 文件大小:17mb
    • 提供者:weixin_38746926
  1. jcseg,Jcseg 是基于 mmseg 算法的一个轻量级中文分词器,同时集成了关键字提取,关键短语提取,关键句子提取和文章自动摘要等功能,并且提供了一个基于 Jetty 的 web 服务器,方便各大语言直接 http 调用,同时提供了最

  2. Jcseg是基于 mmseg 算法的一个轻量级中文分词器,同时集成了关键字提取,关键短语提取,关键句子提取和文章自动摘要等功能,并且提供了一个基于 Jetty 的 web 服务器,方便各大语言直接 http 调用,同时提供了最新版本的 lucene, solr, elasticsearch 的分词接口!Jcseg自带了一个 jcseg.properties 文件用于快速配置而得到适合不同场合的分词应用,例如:最大匹配词长,是否开启中文人名识别,是否追加拼音,是否追加同义词等!
  3. 所属分类:其它

  1. mynlp:一个生产级,高性能,预定,可扩展的中文NLP工具包。(中文分词,平均感知机,fastText,拼音,新词发现,分词纠错,BM25,人名识别,命名实体,自定义词典)-源码

  2. mynlp:一个生产级,高性能,预定,可扩展的中文NLP工具包。(中文分词,平均感知机,fastText,拼音,新词发现,分词纠错,BM25,人名识别,命名实体,自定义词典)
  3. 所属分类:其它

  1. ansj_seg:ansj分词.ict的真正的Java实现。分词效果速度都超过了开源版的ict。中文分词,人名识别,词性标注,用户自定义词典-源码

  2. Ansj中文分词 使用帮助 开发文档: , 摘要 这是一个基于n-Gram + CRF + HMM的中文分词的java实现。 分词速度达到每秒钟大约200万字左右(mac air下测试),准确率能达到96%以上。 目前实现了中文分词,中文姓名识别,用户自定义词典,关键字提取,自动摘要,关键字标记等功能。 可以应用到自然语言处理等方面,适用于对分词效果要求高的各种项目。 专家 org.ansj ansj_seg
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:24mb
    • 提供者:weixin_42102401
« 12 3 4 »