您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 中文分词的聚类

  2. 基于结巴分词 词性标注 视频文档摘要简介 文本聚类
  3. 所属分类:Python

    • 发布日期:2013-04-02
    • 文件大小:9kb
    • 提供者:osannian12
  1. 结巴中文分词

  2. 比较好的Python下的中文分词工具,但是速度不是特别快,可以看看我的博客说明
  3. 所属分类:Python

    • 发布日期:2014-03-19
    • 文件大小:9mb
    • 提供者:caicai1617
  1. 结巴中文分词源代码

  2. 中文分词、标注系统源代码,我用过挺好的跟大家分享一下
  3. 所属分类:Python

    • 发布日期:2014-04-11
    • 文件大小:9mb
    • 提供者:jkkl2016
  1. 结巴分词jar包

  2. jieba “结巴”中文分词:做最好的 Python 中文分词组件 "Jieba" (Chinese for "to stutter") Chinese text segmentation: built to be the best Python Chinese word segmentation module. Scroll down for English documentation. 特点 支持三种分词模式: 精确模式,试图将句子最精确地切开,适合文本分析; 全模 式,把句子中所有的可以
  3. 所属分类:Java

    • 发布日期:2017-05-15
    • 文件大小:2mb
    • 提供者:subson
  1. java版结巴分词工具

  2. java版结巴分词工具,一个很好的中文分词工具。直接用eclipse打开,输入是一篇文章,然后输出是每个词的词频,并且词频是按照大小从次数最高到次数最低排的,只需要在test包里改部分代码就可以使用了。 不下你会后悔的。
  3. 所属分类:Java

    • 发布日期:2017-11-29
    • 文件大小:3mb
    • 提供者:qq_33654685
  1. 11款开放中文分词引擎测试数据

  2. benchmark 人工标注“标准答案” origin 标注原始数据 news 新闻数据 weibo 微博数据 auto_comments 汽车论坛数据 food_comments 餐饮点评数据 itp_cloud 语言云 jieba 结巴分词 pangu 盘古分词 paoding 庖丁解牛分词器 qcloud 腾讯文智 sina 新浪云 sogou 搜狗分词
  3. 所属分类:深度学习

    • 发布日期:2017-12-29
    • 文件大小:2mb
    • 提供者:xujin18
  1. 11款开放中文分词引擎测试数据

  2. 11款开放中文分词引擎测试数据 benchmark 人工标注“标准答案” origin 标注原始数据 news 新闻数据 weibo 微博数据 auto_comments 汽车论坛数据 food_comments 餐饮点评数据 itp_cloud 语言云 jieba 结巴分词 pangu 盘古分词 paoding 庖丁解牛分词器 qcloud 腾讯文智 sina 新浪云 sogou 搜狗分词
  3. 所属分类:机器学习

    • 发布日期:2018-04-12
    • 文件大小:2mb
    • 提供者:bleadge
  1. 结巴0.39分词

  2. python中文分词包,外网下载太慢,解压并输入python setup.py install即可安装
  3. 所属分类:其它

    • 发布日期:2018-07-22
    • 文件大小:13mb
    • 提供者:qq_42711664
  1. Python中文分词库Yaha.zip

  2. "哑哈"中文分词,更快或更准确,由你来定义。通过简单定制,让分词模块更适用于你的需求。 "Yaha" You can custom your Chinese Word Segmentation efficiently by using Yaha 基本功能: 精确模式,将句子切成最合理的词。 全模式,所有的可能词都被切成词,不消除歧义。 搜索引擎模式,在精确的基础上再次驿长词进行切分,提高召回率,适合搜索引擎创建索引。 备选路径,可生成最好的多条切词路径,可在此
  3. 所属分类:其它

  1. Python-jieba结巴中文分词做最好的Python中文分词组件

  2. jieba:“结巴”中文分词:做最好的 Python 中文分词组件
  3. 所属分类:其它

    • 发布日期:2019-08-10
    • 文件大小:11mb
    • 提供者:weixin_39840914
  1. Go-"结巴"中文分词的Golang版本

  2. 结巴"中文分词的Golang版本
  3. 所属分类:其它

  1. 结巴中文分词.zip

  2. 结巴中文分词.zip,结巴中文分词
  3. 所属分类:其它

    • 发布日期:2019-09-24
    • 文件大小:11mb
    • 提供者:weixin_38743968
  1. Python中文分词工具之结巴分词用法实例总结【经典案例】

  2. 主要介绍了Python中文分词工具之结巴分词用法,结合实例形式总结分析了Python针对中文文件的读取与分词操作过程中遇到的问题与解决方法,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-09-21
    • 文件大小:105kb
    • 提供者:weixin_38522214
  1. Python结巴中文分词工具使用过程中遇到的问题及解决方法

  2. 主要介绍了Python结巴中文分词工具使用过程中遇到的问题及解决方法,较为详细的讲述了Python结巴中文分词工具的下载、安装、使用方法及容易出现的问题与相应解决方法,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-09-21
    • 文件大小:93kb
    • 提供者:weixin_38705788
  1. python中文分词,使用结巴分词对python进行分词(实例讲解)

  2. 下面小编就为大家带来一篇python中文分词,使用结巴分词对python进行分词的实例讲解。有比较好的参考价值,希望能给大家做个参考。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-21
    • 文件大小:64kb
    • 提供者:weixin_38601499
  1. python中文分词,使用结巴分词对python进行分词(实例讲解)

  2. 在采集美女站时,需要对关键词进行分词,最终采用的是python的结巴分词方法。 中文分词是中文文本处理的一个基础性工作,结巴分词利用进行中文分词。 其基本实现原理有三点: 1.基于Trie树结构实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图(DAG) 2.采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合 3.对于未登录词,采用了基于汉字成词能力的HMM模型,使用了Viterbi算法 安装(Linux环境) 下载工具包,解压后进入目录下,运行:python set
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:70kb
    • 提供者:weixin_38565631
  1. Python中文分词库jieba,pkusegwg性能准确度比较

  2. 中文分词(Chinese Word Segmentation),将中文语句切割成单独的词组。英文使用空格来分开每个单词的,而中文单独一个汉字跟词有时候完全不是同个含义,因此,中文分词相比英文分词难度高很多。 分词主要用于NLP 自然语言处理(Natural Language Processing),使用场景有: 搜索优化,关键词提取(百度指数) 语义分析,智能问答系统(客服系统) 非结构化文本媒体内容,如社交信息(微博热榜) 文本聚类,根据内容生成分类(行业分类) Python的
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:640kb
    • 提供者:weixin_38717031
  1. jieba-php:“结巴”中文分词:做最好PHP。PHP中文分词,中文断词组件。“ Jieba”(中文为“ to stutter”)中文文本分割:构建为最佳PHP中文单词分割模块-源码

  2. “结巴”中文分词:做最好PHP中文分词,中文断词组件,当前翻译版本为jieba-0.33版本,未来再慢慢往上升级,效能也需要再改善,请有兴趣的开发者一起加入开发!若想使用Python版本请前往 现在已经可以支持繁体中文!只要将字典切换为big模式即可! “ Jieba”(中文为“ to stutter”)中文文本分割:内置为最好PHP中文单词分割模块。 向下滚动以获取英文文档。 线上展示 网站网址: : 网站原始码: : 特征 支持三种分词模式: 1)最小精确模式,试图将句子最精确地
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:20mb
    • 提供者:weixin_42137028
  1. Python中文分词工具之结巴分词用法实例总结【经典案例】

  2. 本文实例讲述了Python中文分词工具之结巴分词用法。分享给大家供大家参考,具体如下: 结巴分词工具的安装及基本用法,前面的文章《Python结巴中文分词工具使用过程中遇到的问题及解决方法》中已经有所描述。这里要说的内容与实际应用更贴近——从文本中读取中文信息,利用结巴分词工具进行分词及词性标注。 示例代码如下: #coding=utf-8 import jieba import jieba.posseg as pseg import time t1=time.time() f=open(t_
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:109kb
    • 提供者:weixin_38535848
  1. Python结巴中文分词工具使用过程中遇到的问题及解决方法

  2. 本文实例讲述了Python结巴中文分词工具使用过程中遇到的问题及解决方法。分享给大家供大家参考,具体如下: 结巴分词是Python语言中效果最好的分词工具,其功能包括:分词、词性标注、关键词抽取、支持用户词表等。这几天一直在研究这个工具,在安装与使用过程中遇到一些问题,现在把自己的一些方法帖出来分享一下。 官网地址:https://github.com/fxsjy/jieba 1、安装。 按照官网上的说法,有三种安装方式, 第一种是全自动安装:easy_install jieba 或者 pip
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:97kb
    • 提供者:weixin_38632046
« 12 3 »