您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 中文分词的聚类

  2. 基于结巴分词 词性标注 视频文档摘要简介 文本聚类
  3. 所属分类:Python

    • 发布日期:2013-04-02
    • 文件大小:9216
    • 提供者:osannian12
  1. 结巴分词源代码

  2. 结巴分词的源代码,python。
  3. 所属分类:Python

    • 发布日期:2014-02-27
    • 文件大小:9437184
    • 提供者:chaihua483
  1. 结巴分词Python代码

  2. 结巴分词,很不错的分词工具,python写的,亲身试用,不管英文还是中文分得很准!
  3. 所属分类:Python

    • 发布日期:2014-08-26
    • 文件大小:6291456
    • 提供者:csdn20140826
  1. jieba分词包

  2. 结巴分词包
  3. 所属分类:Python

    • 发布日期:2016-10-13
    • 文件大小:11534336
    • 提供者:u014018025
  1. jieba分词资源包

  2. 结巴分词用到的资源文件,使用方式见博客
  3. 所属分类:Java

    • 发布日期:2016-11-16
    • 文件大小:1048576
    • 提供者:wbcg111
  1. 结巴分词包软件

  2. 结巴分词包软件
  3. 所属分类:Python

    • 发布日期:2016-11-23
    • 文件大小:11534336
    • 提供者:robin_xu_shuai
  1. python结巴分词包

  2. 结巴分词jieba-0.38,不多说
  3. 所属分类:Python

    • 发布日期:2017-03-07
    • 文件大小:7340032
    • 提供者:u012318329
  1. 结巴分词jar包

  2. jieba “结巴”中文分词:做最好的 Python 中文分词组件 "Jieba" (Chinese for "to stutter") Chinese text segmentation: built to be the best Python Chinese word segmentation module. Scroll down for English documentation. 特点 支持三种分词模式: 精确模式,试图将句子最精确地切开,适合文本分析; 全模 式,把句子中所有的可以
  3. 所属分类:Java

    • 发布日期:2017-05-15
    • 文件大小:2097152
    • 提供者:subson
  1. java版结巴分词工具

  2. java版结巴分词工具,一个很好的中文分词工具。直接用eclipse打开,输入是一篇文章,然后输出是每个词的词频,并且词频是按照大小从次数最高到次数最低排的,只需要在test包里改部分代码就可以使用了。 不下你会后悔的。
  3. 所属分类:Java

    • 发布日期:2017-11-29
    • 文件大小:3145728
    • 提供者:qq_33654685
  1. java版本结巴分词

  2. java版本结巴分词。添加了自定义分词、阻止词、分词词性等。
  3. 所属分类:Java

    • 发布日期:2018-03-13
    • 文件大小:4194304
    • 提供者:u012050821
  1. delphi+Python结巴分词例子源代码

  2. delphi+Python结巴分词例子源代码,用到组件PythonForDelphi
  3. 所属分类:Delphi

    • 发布日期:2018-05-07
    • 文件大小:13631488
    • 提供者:yxhome
  1. delphi调用结巴分词DLL接口

  2. 结巴分词C语言API打包的DLL,并提供delphi调用接口和DEMO代码,感谢盒子网友bahamut8348的帮助。
  3. 所属分类:Delphi

    • 发布日期:2018-01-25
    • 文件大小:3145728
    • 提供者:k39k39
  1. 结巴分词.rar

  2. BAT算法工程师深入详细地讲解结巴分词,带你轻松入门机器学习!
  3. 所属分类:机器学习

    • 发布日期:2019-07-03
    • 文件大小:22020096
    • 提供者:qq_41483750
  1. Python中文分词工具之结巴分词用法实例总结【经典案例】

  2. 主要介绍了Python中文分词工具之结巴分词用法,结合实例形式总结分析了Python针对中文文件的读取与分词操作过程中遇到的问题与解决方法,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-09-21
    • 文件大小:107520
    • 提供者:weixin_38522214
  1. Python 结巴分词实现关键词抽取分析

  2. 主要介绍了Python 结巴分词实现关键词抽取分析,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-21
    • 文件大小:125952
    • 提供者:weixin_38595356
  1. python中文分词,使用结巴分词对python进行分词(实例讲解)

  2. 下面小编就为大家带来一篇python中文分词,使用结巴分词对python进行分词的实例讲解。有比较好的参考价值,希望能给大家做个参考。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-21
    • 文件大小:65536
    • 提供者:weixin_38601499
  1. Python jieba结巴分词原理及用法解析

  2. 1、简要说明 结巴分词支持三种分词模式,支持繁体字,支持自定义词典 2、三种分词模式 全模式:把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义 精简模式:把句子最精确的分开,不会添加多余单词,看起来就像是把句子分割一下 搜索引擎模式:在精简模式下,对长词再度切分 # -*- encoding=utf-8 -*- import jieba if __name__ == '__main__': str1 = '我去北京天安门广场跳舞' a = jieba.lcut(s
  3. 所属分类:其它

    • 发布日期:2020-12-16
    • 文件大小:83968
    • 提供者:weixin_38617196
  1. python中文分词,使用结巴分词对python进行分词(实例讲解)

  2. 在采集美女站时,需要对关键词进行分词,最终采用的是python的结巴分词方法。 中文分词是中文文本处理的一个基础性工作,结巴分词利用进行中文分词。 其基本实现原理有三点: 1.基于Trie树结构实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图(DAG) 2.采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合 3.对于未登录词,采用了基于汉字成词能力的HMM模型,使用了Viterbi算法 安装(Linux环境) 下载工具包,解压后进入目录下,运行:python set
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:71680
    • 提供者:weixin_38565631
  1. Python中文分词工具之结巴分词用法实例总结【经典案例】

  2. 本文实例讲述了Python中文分词工具之结巴分词用法。分享给大家供大家参考,具体如下: 结巴分词工具的安装及基本用法,前面的文章《Python结巴中文分词工具使用过程中遇到的问题及解决方法》中已经有所描述。这里要说的内容与实际应用更贴近——从文本中读取中文信息,利用结巴分词工具进行分词及词性标注。 示例代码如下: #coding=utf-8 import jieba import jieba.posseg as pseg import time t1=time.time() f=open(t_
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:111616
    • 提供者:weixin_38535848
  1. 【NLP】之 结巴分词

  2. 1.结巴分词简介 结巴分词是当前效果较好的一种中文分词器,支持中文简体、中文繁体分词,同时还支持自定义词库。 结巴分词支持三种分词模式:精确模式、全模式和搜索引擎模式。 精确模式是试图将句子最精确的进行切分,适合用于文本分析; 全模式的原理是把句子中全部可以成词的词语全部扫描出来,它的分词速度快,缺点是无法识别歧义词句; 搜索引擎模式是在精确模式的基础上进一步处理的,它对较长的词语再进行分割,将召回率提高,适合于搜索引擎分词。 结巴分词自带一个词典,内含20000多条词,及词条出现的次数与词
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:159744
    • 提供者:weixin_38531017
« 12 3 4 5 »