您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 可训练的中文分词和词性标注系统

  2. 采用机器学习的方法进行自然语言处理,对中文进行分词和词性标注。分词采用crf模型,词性标注用hmm模型,解码算法为Vertibi算法。本系统使用java语言编写
  3. 所属分类:其它

    • 发布日期:2010-12-26
    • 文件大小:1mb
    • 提供者:dark666666
  1. 基于CRFs 的中文分词和短文本分类技术.pdf

  2. 本文的工作主要包括两部分:第一部分,我们借用了文本分类领域的特征选择算法对中文分词中的特征进行分析。分析结果表明,特征选择算法在中文分词的任务中也是适用的。在中文分词领域,基于字标注的方法得到广泛应用。通过字标注系统,中文分词任务被转换为序列标注任务,许多成熟的机器学习算法得以应用。评测结果表明,在众多的机器学习算法中,基于CRFs的分词器可以达到state-of-the-art的分词效果。CRFs分词器对于给出的每一个切分,都可以提供置信度。在本文中,我们深入调研了CRFs提供的置信度,在此
  3. 所属分类:其它

    • 发布日期:2011-01-04
    • 文件大小:1mb
    • 提供者:chwbin
  1. CRF分词实例

  2. 下载直接导入eclipse即可用,很好的CRF初步学习实例
  3. 所属分类:Java

    • 发布日期:2013-06-03
    • 文件大小:5mb
    • 提供者:oaixuefenfei
  1. crf++ 中文分词

  2. 中文分词 crf++ c++实现代码
  3. 所属分类:C/C++

    • 发布日期:2013-12-08
    • 文件大小:495kb
    • 提供者:u013076985
  1. 基于CRF++的中文分词 数据+CRF++工具+java源码

  2. 基于CRF++的中文分词,包含了数据、CRF++工具、java源码,可以一键执行
  3. 所属分类:Java

    • 发布日期:2015-07-06
    • 文件大小:5mb
    • 提供者:luozhipeng2011
  1. Ansj中文分词

  2. Ansj中文分词是一个完全开源的、基于Google语义模型+条件随机场模型的中文分词的Java实现,具有使用简单、开箱即用等特点。 Ansj分词速度达到每秒钟大约100万字左右(Mac Air下测试),准确率能达到96%以上。 Ansj 1.41版本的新增功能 •增加了调用文档说明 •调整了关键词抽取 •增加了摘要计算 •关键词标红 •大幅度提高了命名实体识别 •对于词性标注提供了基于概率的快速标注方式.依旧保留给予隐马模型的词性标注. •修复了目前已知的所有bug •大量修正了之前默认用户自
  3. 所属分类:互联网

    • 发布日期:2015-07-10
    • 文件大小:43mb
    • 提供者:katrina1rani
  1. crf分词标注训练语料

  2. 用与crf分词,标注训练语料。 nlpcc2015任务一的数据
  3. 所属分类:其它

    • 发布日期:2015-09-16
    • 文件大小:10mb
    • 提供者:baidu_26550817
  1. CRF++ 训练中文分词

  2. CRF++ 训练中文分词,文件后缀有3标示3列的语料,文件后缀有2,表示2列的语料训练
  3. 所属分类:其它

    • 发布日期:2017-02-08
    • 文件大小:2mb
    • 提供者:u013378306
  1. CRF分词实验

  2. CRF分词实验_数据代码集合 多媒体技术作业
  3. 所属分类:其它

    • 发布日期:2017-02-17
    • 文件大小:50mb
    • 提供者:wql2014302721
  1. 基于有效子串标注的中文分词

  2. 基于有效子串的中文分词,首先找出有效子串,接着使用CRF模型进行训练
  3. 所属分类:专业指导

    • 发布日期:2009-02-05
    • 文件大小:198kb
    • 提供者:mei9771
  1. CRF,LSTM,最大后向匹配法实现中文分词

  2. 3种中文分词方法:最大后向匹配法,CRF,LSTM。其中LSTM又用了三种方法输入,glove向量,Word2vec向量,还有将字映射成整数再通过embedding层映射成字向量作为输入。还包含中文分词的评分脚本。
  3. 所属分类:深度学习

    • 发布日期:2018-06-18
    • 文件大小:14mb
    • 提供者:sixi5498
  1. 基于CRF++的中文分词 数据+CRF++工具+java源码.zip

  2. 基于CRF++的中文分词 数据+CRF++工具+java源码.zip
  3. 所属分类:算法与数据结构

    • 发布日期:2018-03-02
    • 文件大小:10mb
    • 提供者:peterdoctor
  1. CRF++分词所需文件.zip

  2. windows下CRF++分词实践及相关python文件
  3. 所属分类:机器学习

    • 发布日期:2019-06-03
    • 文件大小:43mb
    • 提供者:qq_27500493
  1. Linux CRF++.分词所需文件zip

  2. windows./linux 下CRF++分词实践及相关python文件
  3. 所属分类:机器学习

    • 发布日期:2019-07-03
    • 文件大小:48mb
    • 提供者:m0_37745167
  1. 日文分词系统mecab的中文讲解

  2. 日文分词系统mecab的中文讲解 mecab (http://mecab.sourceforge.net/) 是奈良先端科学技術大学院的工藤拓开发的日文分词系统, 该作者写过多个 machine learning 方面的软件包, 最有名的就是 CRF++, 目前该作者在 googleJapan 工作
  3. 所属分类:专业指导

    • 发布日期:2010-10-20
    • 文件大小:95kb
    • 提供者:misides
  1. CRF++的使用 CRF用于中文分词-附件资源

  2. CRF++的使用 CRF用于中文分词-附件资源
  3. 所属分类:互联网

    • 发布日期:2021-03-05
    • 文件大小:106byte
    • 提供者:weixin_42203424
  1. CRF++的使用 CRF用于中文分词-附件资源

  2. CRF++的使用 CRF用于中文分词-附件资源
  3. 所属分类:互联网

    • 发布日期:2021-03-05
    • 文件大小:106byte
    • 提供者:weixin_42200829
  1. CRF++的使用 CRF用于中文分词-附件资源

  2. CRF++的使用 CRF用于中文分词-附件资源
  3. 所属分类:互联网

    • 发布日期:2021-03-02
    • 文件大小:23byte
    • 提供者:weixin_42205405
  1. CRF++的使用 CRF用于中文分词-附件资源

  2. CRF++的使用 CRF用于中文分词-附件资源
  3. 所属分类:互联网

    • 发布日期:2021-03-02
    • 文件大小:23byte
    • 提供者:weixin_42187487
  1. ID-CNN-CWS:源代码和论文“用于中文分词的迭代扩张卷积”的语料库-源码

  2. ID-CNN-CWS 源代码和论文“用于中文分词的迭代膨胀卷积”的论文集。 它为CWS实现以下4种模型: 双LSTM 双LSTM-CRF 身份识别 ID-CNN-CRF 依存关系 Python> = 3.6 TensorFlow> = 1.2 同时支持CPU和GPU。 GPU训练速度提高了10倍。 制备 运行以下脚本以将语料库转换为TensorFlow数据集。 $ ./scr ipts/make.sh 训练与测试 快速开始 $ ./scr ipts/run.sh $d
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:27mb
    • 提供者:weixin_42109545
« 12 3 4 5 »