您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. IKAnalyzer 3.0 中文分词器

  2. 1.IKAnalyzer3.0介绍 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer 已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0 则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 1.2IKAnalyzer3.0特性 * 采用了特有的“正向迭代最细粒度切分
  3. 所属分类:其它

    • 发布日期:2009-07-21
    • 文件大小:1mb
    • 提供者:linliangyi2006
  1. 分语算法,分词算法介绍

  2. 分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语
  3. 所属分类:其它

    • 发布日期:2010-01-02
    • 文件大小:396kb
    • 提供者:skykanghh
  1. 分词算法介分词算法介

  2. 词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分
  3. 所属分类:其它

    • 发布日期:2010-01-02
    • 文件大小:1mb
    • 提供者:skykanghh
  1. 中文分词算法介绍、分类详解

  2. 该文档详细介绍了中文分词的原理及相应的技术。文档讲解了最大匹配法(Forward Maximum Matching method, FMM法)、正向最大匹配法(由左到右的方向)、逆向最大匹配法(由右到左的方向)、最少切分(使每一句中切出的词数最小)。
  3. 所属分类:其它

    • 发布日期:2010-04-25
    • 文件大小:108kb
    • 提供者:yangyangye
  1. N-gram模型和机器学习的汉语分词算法

  2. 这是一篇关于自然语言处理的论文,介绍了汉语分词的n-gram算法,绝对值得推荐
  3. 所属分类:其它

  1. 几种基于词典的中文分词算法评价

  2. 结合当前中文分词技术在中丈信息处理等领域的广泛应用,分析了中丈分词技术的重要性,对三类 基本分词算法进行了介绍并讨论了各自的特.点,提出了中文分词技术面临的难题及汁其未来的展望。
  3. 所属分类:其它

    • 发布日期:2010-09-08
    • 文件大小:263kb
    • 提供者:atom198101
  1. 详细介绍中文分词算法的种类

  2. 本文致力于研究中文分词算法,通过分词算法对分 词的质量做出客观的判断和评估,从而为中文分词的进一步发展提供基础和方向
  3. 所属分类:专业指导

    • 发布日期:2011-04-08
    • 文件大小:198kb
    • 提供者:lele688
  1. 中文分词算法接口文档

  2. 中科院中文分词算法的接口介绍,包括C++,java,C#等语言
  3. 所属分类:Java

    • 发布日期:2013-04-15
    • 文件大小:199kb
    • 提供者:libohuiyuan
  1. 基于条件随机场的中文分词方法

  2. 基于条件随机场的中文分词方法,算法和理论介绍
  3. 所属分类:其它

    • 发布日期:2013-05-03
    • 文件大小:247kb
    • 提供者:chenlumin
  1. C++中文分词源码,分词的方法

  2. 西方语言在语句(或从句)内词汇之间存在分割符(空格),而汉语的词汇在语句中是连续排列的。因此,汉语词汇的切分(分词)在中文信息处理的许多应用领域,如机器翻译、文献检索、文献分类、文献过滤、以及词频统计等,是非常重要的第一步。 自动分词是基于字符串匹配的原理进行的。迄今为止,已经有许多文献对各种分词方法进行探讨,其着重点或为分词的速度方面,或为分词的精度方面以及分词的规范。本文主要探讨分词的速度问题,通过实验对比和理论分析,说明我们所提出的算法是有效的。 目前人们所提出的分词方法,在考虑效率问题
  3. 所属分类:其它

    • 发布日期:2008-11-12
    • 文件大小:327kb
    • 提供者:johnzhjfly
  1. 遗忘算法演示程序(包含词库生成、分词、词权重)C#源码详细介绍

  2. 遗忘算法演示程序(包含词库生成、分词、词权重)C#源码详细介绍
  3. 所属分类:机器学习

    • 发布日期:2018-05-13
    • 文件大小:43mb
    • 提供者:u014556723
  1. Java实现的双向匹配分词算法示例

  2. 主要介绍了Java实现的双向匹配分词算法,结合完整实例形式详细分析了双向匹配分词算法的原理与java实现技巧,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-08-28
    • 文件大小:98kb
    • 提供者:weixin_38599545
  1. Java实现的最大匹配分词算法详解

  2. 主要介绍了Java实现的最大匹配分词算法,简单说明了最大匹配分词算法的原理并结合具体实例形式最大匹配分词算法的实现方法与相关注意事项,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-08-29
    • 文件大小:91kb
    • 提供者:weixin_38622125
  1. 用python实现前向分词最大匹配算法的示例代码

  2. 主要介绍了用python实现前向分词最大匹配算法的示例代码,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:66kb
    • 提供者:weixin_38521831
  1. python实现中文分词FMM算法实例

  2. 主要介绍了python实现中文分词FMM算法,实例分析了Python基于FMM算法进行中文分词的实现方法,涉及Python针对文件、字符串及正则匹配操作的相关技巧,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-09-21
    • 文件大小:36kb
    • 提供者:weixin_38658982
  1. python实现机械分词之逆向最大匹配算法代码示例

  2. 主要介绍了python实现机械分词之逆向最大匹配算法代码示例,具有一定借鉴价值,需要的朋友可以参考下。
  3. 所属分类:其它

    • 发布日期:2020-09-21
    • 文件大小:153kb
    • 提供者:weixin_38604653
  1. 浅析常用分词算法的比较与设想

  2. 介绍了常用分词算法的比较与设想,有需要的朋友可以参考一下
  3. 所属分类:其它

    • 发布日期:2020-10-26
    • 文件大小:50kb
    • 提供者:weixin_38660327
  1. npartword:golang分布式中文分词系统-源码

  2. npw介绍 npw:npartword,golang实现中文分词系统,主体分词逻辑有两个部分。 1.初步树查找字典,通过disctance或mmseg算法过滤分词 2.维特比算法解隐马尔可夫模型,对词进行隐状态标注分词 3.加入情感词典,文本情感分类算法,对文本进行情感评分,如积极,消极,否定等,一般分值越来越文本的积极性发生 分词服务系统的实现,通过nmid的worker方式实现。 1.分词系统服务端,需要实现nmid的工人,服务的实现十分简单,无需考虑通信问题,这些nmid解决。 2.
  3. 所属分类:其它

  1. Introduction-NLP:HanLP作者的新书《自然语言处理入门》详细笔记!业界良心之作,书中不是枯燥无味的公式罗列,甚至用白话分解的通俗易懂的算法模型。从基本概念出发,逐步介绍中文分词,词性标注,命名实体识别,信息删除,文本聚类,

  2. 简介-自然语言处理 汉良作者何晗老师的新书《自然语言处理入门》详细的笔记!业界良心之作,书中不是枯燥无味的公式罗列,甚至用白话分解的通俗易懂的算法模型。从基本概念出发,逐步介绍中文分词,词性标注,命名实体识别,信息删除,文本聚类,文本分类,句法分析这几个热门问题的算法原理与工程实现。 本项目初步帮助更多同路人能够快速的掌握NLP的专业知识,理清知识要点,在工作中发挥作用的作用。以书本为主,记录本人学习此书的心路历程,总结和笔记。 机器学习与深度学习请转至本人项目: HanLP项目: 思维导
  3. 所属分类:其它

  1. 用python实现前向分词最大匹配算法的示例代码

  2. 理论介绍 分词是自然语言处理的一个基本工作,中文分词和英文不同,字词之间没有空格。中文分词是文本挖掘的基础,对于输入的一段中文,成功的进行中文分词,可以达到电脑自动识别语句含义的效果。中文分词技术属于自然语言处理技术范畴,对于一句话,人可以通过自己的知识来明白哪些是词,哪些不是词,但如何让计算机也能理解?其处理过程就是分词算法。 可以将中文分词方法简单归纳为: 1.基于词表的分词方法 2.基于统计的分词方法 3.基于序列标记的分词方法 其中,基于词表的分词方法最为简单,根据起始匹配位置不同可以
  3. 所属分类:其它

    • 发布日期:2021-01-19
    • 文件大小:64kb
    • 提供者:weixin_38534352
« 12 3 4 »