您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 中文分词程序

  2. 用python写的中文分词,实现了你想最大匹配算法
  3. 所属分类:Python

    • 发布日期:2008-05-02
    • 文件大小:2mb
    • 提供者:dingxiao613
  1. 基于HMM模型中文分词系统

  2. 基于HMM模型中文分词系统,使用python代码。内有使用说明!
  3. 所属分类:Python

    • 发布日期:2013-06-17
    • 文件大小:1mb
    • 提供者:jys610
  1. 中文分词程序Python版

  2. 中文分词程序Python版,算法是正向最大匹配 效果不错,亲自编写的
  3. 所属分类:Python

    • 发布日期:2013-11-01
    • 文件大小:3mb
    • 提供者:sky_hiter
  1. 简单的中文分词程序(练习)

  2. http://blog.csdn.net/u013754134/article/details/20208671 个人练习 非常简单的分词程序(非源码)
  3. 所属分类:Python

    • 发布日期:2014-03-01
    • 文件大小:2mb
    • 提供者:u013754134
  1. 结巴中文分词

  2. 比较好的Python下的中文分词工具,但是速度不是特别快,可以看看我的博客说明
  3. 所属分类:Python

    • 发布日期:2014-03-19
    • 文件大小:9mb
    • 提供者:caicai1617
  1. Python中文分词_中文分词软件

  2. Python中文分词_中文分词软件,使用jieba字典
  3. 所属分类:Python

    • 发布日期:2014-11-14
    • 文件大小:628byte
    • 提供者:liulei9585
  1. 中文分词词典

  2. 中文分词词典,Python 作业 中文 分词 词典
  3. 所属分类:Python

    • 发布日期:2014-12-22
    • 文件大小:4mb
    • 提供者:jose_s
  1. Python中文分词库Yaha.zip

  2. "哑哈"中文分词,更快或更准确,由你来定义。通过简单定制,让分词模块更适用于你的需求。 "Yaha" You can custom your Chinese Word Segmentation efficiently by using Yaha 基本功能: 精确模式,将句子切成最合理的词。 全模式,所有的可能词都被切成词,不消除歧义。 搜索引擎模式,在精确的基础上再次驿长词进行切分,提高召回率,适合搜索引擎创建索引。 备选路径,可生成最好的多条切词路径,可在此
  3. 所属分类:其它

  1. Python中文分词库jieba,pkusegwg性能准确度比较

  2. 主要介绍了Python中文分词库jieba,pkusegwg性能准确度比较,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-09-17
    • 文件大小:537kb
    • 提供者:weixin_38744803
  1. python中文分词库jieba使用方法详解

  2. 主要介绍了python中文分词库jieba使用方法详解,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-09-17
    • 文件大小:102kb
    • 提供者:weixin_38589795
  1. Python中文分词实现方法(安装pymmseg)

  2. 主要介绍了Python中文分词实现方法,通过安装pymmseg来实现分词功能,涉及pymmseg的下载、解压、安装及使用技巧,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-09-21
    • 文件大小:40kb
    • 提供者:weixin_38661128
  1. Python中文分词工具之结巴分词用法实例总结【经典案例】

  2. 主要介绍了Python中文分词工具之结巴分词用法,结合实例形式总结分析了Python针对中文文件的读取与分词操作过程中遇到的问题与解决方法,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-09-21
    • 文件大小:105kb
    • 提供者:weixin_38522214
  1. python中文分词,使用结巴分词对python进行分词(实例讲解)

  2. 下面小编就为大家带来一篇python中文分词,使用结巴分词对python进行分词的实例讲解。有比较好的参考价值,希望能给大家做个参考。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-21
    • 文件大小:64kb
    • 提供者:weixin_38601499
  1. Python中文分词实现方法(安装pymmseg)

  2. 本文实例讲述了Python中文分词实现方法。分享给大家供大家参考,具体如下: 在Python这pymmseg-cpp 还是十分方便的! 环境 ubuntu10.04 , python2.65 步骤: 1 下载mmseg-cpp的源代码 http://code.google.com/p/pymmseg-cpp/ 2 执行: tar -zxf pymmseg-cpp*.tar.gz //解压后得到pymmseg 目录 cd pymmseg\mmseg-cpp python build.py #
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:46kb
    • 提供者:weixin_38684743
  1. python中文分词,使用结巴分词对python进行分词(实例讲解)

  2. 在采集美女站时,需要对关键词进行分词,最终采用的是python的结巴分词方法。 中文分词是中文文本处理的一个基础性工作,结巴分词利用进行中文分词。 其基本实现原理有三点: 1.基于Trie树结构实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图(DAG) 2.采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合 3.对于未登录词,采用了基于汉字成词能力的HMM模型,使用了Viterbi算法 安装(Linux环境) 下载工具包,解压后进入目录下,运行:python set
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:70kb
    • 提供者:weixin_38565631
  1. Python中文分词库jieba,pkusegwg性能准确度比较

  2. 中文分词(Chinese Word Segmentation),将中文语句切割成单独的词组。英文使用空格来分开每个单词的,而中文单独一个汉字跟词有时候完全不是同个含义,因此,中文分词相比英文分词难度高很多。 分词主要用于NLP 自然语言处理(Natural Language Processing),使用场景有: 搜索优化,关键词提取(百度指数) 语义分析,智能问答系统(客服系统) 非结构化文本媒体内容,如社交信息(微博热榜) 文本聚类,根据内容生成分类(行业分类) Python的
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:640kb
    • 提供者:weixin_38717031
  1. python中文分词教程之前向最大正向匹配算法详解

  2. 前言 大家都知道,英文的分词由于单词间是以空格进行分隔的,所以分词要相对的容易些,而中文就不同了,中文中一个句子的分隔就是以字为单位的了,而所谓的正向最大匹配和逆向最大匹配便是一种分词匹配的方法,这里以词典匹配说明。 最大匹配算法是自然语言处理中的中文匹配算法中最基础的算法,分为正向和逆向,原理都是一样的。 正向最大匹配算法,故名思意,从左向右扫描寻找词的最大匹配。 首先我们可以规定一个词的最大长度,每次扫描的时候寻找当前开始的这个长度的词来和字典中的词匹配,如果没有找到,就缩短长度继续寻找,直
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:67kb
    • 提供者:weixin_38741891
  1. Python中文分词工具之结巴分词用法实例总结【经典案例】

  2. 本文实例讲述了Python中文分词工具之结巴分词用法。分享给大家供大家参考,具体如下: 结巴分词工具的安装及基本用法,前面的文章《Python结巴中文分词工具使用过程中遇到的问题及解决方法》中已经有所描述。这里要说的内容与实际应用更贴近——从文本中读取中文信息,利用结巴分词工具进行分词及词性标注。 示例代码如下: #coding=utf-8 import jieba import jieba.posseg as pseg import time t1=time.time() f=open(t_
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:109kb
    • 提供者:weixin_38535848
  1. python基础编程:python中文分词教程之前向最大正向匹配算法详解

  2. 中文分词是中文文本处理的一个基础性工作,然而长久以来,在Python编程领域,一直缺少高准确率、高效率的分词组件。下面这篇文章主要给大家介绍了关于python中文分词教程之前向最大正向匹配算法的相关资料,需要的朋友可以参考下。 前言 大家都知道,英文的分词由于单词间是以空格进行分隔的,所以分词要相对的容易些,而中文就不同了,中文中一个句子的分隔就是以字为单位的了,而所谓的正向最大匹配和逆向最大匹配便是一种分词匹配的方法,这里以词典匹配说明。 最大匹配算法是自然语言处理中的中文匹配算法中最基础的算
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:66kb
    • 提供者:weixin_38691006
  1. python中文分词库jieba使用方法详解

  2. 安装python中文分词库jieba 法1:Anaconda Prompt下输入conda install jieba 法2:Terminal下输入pip3 install jieba 1、分词 1.1、CUT函数简介 cut(sentence, cut_all=False, HMM=True) 返回生成器,遍历生成器即可获得分词的结果 lcut(sentence) 返回分词列表 import jieba sentence = '我爱自然语言处理' # 创建【Tokenizer.cut 生成器
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:105kb
    • 提供者:weixin_38707356
« 12 3 4 5 6 7 8 »