点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - python中文分词
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
中文分词程序
用python写的中文分词,实现了你想最大匹配算法
所属分类:
Python
发布日期:2008-05-02
文件大小:2mb
提供者:
dingxiao613
基于HMM模型中文分词系统
基于HMM模型中文分词系统,使用python代码。内有使用说明!
所属分类:
Python
发布日期:2013-06-17
文件大小:1mb
提供者:
jys610
中文分词程序Python版
中文分词程序Python版,算法是正向最大匹配 效果不错,亲自编写的
所属分类:
Python
发布日期:2013-11-01
文件大小:3mb
提供者:
sky_hiter
简单的中文分词程序(练习)
http://blog.csdn.net/u013754134/article/details/20208671 个人练习 非常简单的分词程序(非源码)
所属分类:
Python
发布日期:2014-03-01
文件大小:2mb
提供者:
u013754134
结巴中文分词
比较好的Python下的中文分词工具,但是速度不是特别快,可以看看我的博客说明
所属分类:
Python
发布日期:2014-03-19
文件大小:9mb
提供者:
caicai1617
Python中文分词_中文分词软件
Python中文分词_中文分词软件,使用jieba字典
所属分类:
Python
发布日期:2014-11-14
文件大小:628byte
提供者:
liulei9585
中文分词词典
中文分词词典,Python 作业 中文 分词 词典
所属分类:
Python
发布日期:2014-12-22
文件大小:4mb
提供者:
jose_s
Python中文分词库Yaha.zip
"哑哈"中文分词,更快或更准确,由你来定义。通过简单定制,让分词模块更适用于你的需求。 "Yaha" You can custom your Chinese Word Segmentation efficiently by using Yaha 基本功能: 精确模式,将句子切成最合理的词。 全模式,所有的可能词都被切成词,不消除歧义。 搜索引擎模式,在精确的基础上再次驿长词进行切分,提高召回率,适合搜索引擎创建索引。 备选路径,可生成最好的多条切词路径,可在此
所属分类:
其它
发布日期:2019-07-16
文件大小:6mb
提供者:
weixin_39841856
Python中文分词库jieba,pkusegwg性能准确度比较
主要介绍了Python中文分词库jieba,pkusegwg性能准确度比较,需要的朋友可以参考下
所属分类:
其它
发布日期:2020-09-17
文件大小:537kb
提供者:
weixin_38744803
python中文分词库jieba使用方法详解
主要介绍了python中文分词库jieba使用方法详解,需要的朋友可以参考下
所属分类:
其它
发布日期:2020-09-17
文件大小:102kb
提供者:
weixin_38589795
Python中文分词实现方法(安装pymmseg)
主要介绍了Python中文分词实现方法,通过安装pymmseg来实现分词功能,涉及pymmseg的下载、解压、安装及使用技巧,需要的朋友可以参考下
所属分类:
其它
发布日期:2020-09-21
文件大小:40kb
提供者:
weixin_38661128
Python中文分词工具之结巴分词用法实例总结【经典案例】
主要介绍了Python中文分词工具之结巴分词用法,结合实例形式总结分析了Python针对中文文件的读取与分词操作过程中遇到的问题与解决方法,需要的朋友可以参考下
所属分类:
其它
发布日期:2020-09-21
文件大小:105kb
提供者:
weixin_38522214
python中文分词,使用结巴分词对python进行分词(实例讲解)
下面小编就为大家带来一篇python中文分词,使用结巴分词对python进行分词的实例讲解。有比较好的参考价值,希望能给大家做个参考。一起跟随小编过来看看吧
所属分类:
其它
发布日期:2020-09-21
文件大小:64kb
提供者:
weixin_38601499
Python中文分词实现方法(安装pymmseg)
本文实例讲述了Python中文分词实现方法。分享给大家供大家参考,具体如下: 在Python这pymmseg-cpp 还是十分方便的! 环境 ubuntu10.04 , python2.65 步骤: 1 下载mmseg-cpp的源代码 http://code.google.com/p/pymmseg-cpp/ 2 执行: tar -zxf pymmseg-cpp*.tar.gz //解压后得到pymmseg 目录 cd pymmseg\mmseg-cpp python build.py #
所属分类:
其它
发布日期:2020-12-25
文件大小:46kb
提供者:
weixin_38684743
python中文分词,使用结巴分词对python进行分词(实例讲解)
在采集美女站时,需要对关键词进行分词,最终采用的是python的结巴分词方法。 中文分词是中文文本处理的一个基础性工作,结巴分词利用进行中文分词。 其基本实现原理有三点: 1.基于Trie树结构实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图(DAG) 2.采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合 3.对于未登录词,采用了基于汉字成词能力的HMM模型,使用了Viterbi算法 安装(Linux环境) 下载工具包,解压后进入目录下,运行:python set
所属分类:
其它
发布日期:2020-12-24
文件大小:70kb
提供者:
weixin_38565631
Python中文分词库jieba,pkusegwg性能准确度比较
中文分词(Chinese Word Segmentation),将中文语句切割成单独的词组。英文使用空格来分开每个单词的,而中文单独一个汉字跟词有时候完全不是同个含义,因此,中文分词相比英文分词难度高很多。 分词主要用于NLP 自然语言处理(Natural Language Processing),使用场景有: 搜索优化,关键词提取(百度指数) 语义分析,智能问答系统(客服系统) 非结构化文本媒体内容,如社交信息(微博热榜) 文本聚类,根据内容生成分类(行业分类) Python的
所属分类:
其它
发布日期:2020-12-20
文件大小:640kb
提供者:
weixin_38717031
python中文分词教程之前向最大正向匹配算法详解
前言 大家都知道,英文的分词由于单词间是以空格进行分隔的,所以分词要相对的容易些,而中文就不同了,中文中一个句子的分隔就是以字为单位的了,而所谓的正向最大匹配和逆向最大匹配便是一种分词匹配的方法,这里以词典匹配说明。 最大匹配算法是自然语言处理中的中文匹配算法中最基础的算法,分为正向和逆向,原理都是一样的。 正向最大匹配算法,故名思意,从左向右扫描寻找词的最大匹配。 首先我们可以规定一个词的最大长度,每次扫描的时候寻找当前开始的这个长度的词来和字典中的词匹配,如果没有找到,就缩短长度继续寻找,直
所属分类:
其它
发布日期:2021-01-21
文件大小:67kb
提供者:
weixin_38741891
Python中文分词工具之结巴分词用法实例总结【经典案例】
本文实例讲述了Python中文分词工具之结巴分词用法。分享给大家供大家参考,具体如下: 结巴分词工具的安装及基本用法,前面的文章《Python结巴中文分词工具使用过程中遇到的问题及解决方法》中已经有所描述。这里要说的内容与实际应用更贴近——从文本中读取中文信息,利用结巴分词工具进行分词及词性标注。 示例代码如下: #coding=utf-8 import jieba import jieba.posseg as pseg import time t1=time.time() f=open(t_
所属分类:
其它
发布日期:2021-01-20
文件大小:109kb
提供者:
weixin_38535848
python基础编程:python中文分词教程之前向最大正向匹配算法详解
中文分词是中文文本处理的一个基础性工作,然而长久以来,在Python编程领域,一直缺少高准确率、高效率的分词组件。下面这篇文章主要给大家介绍了关于python中文分词教程之前向最大正向匹配算法的相关资料,需要的朋友可以参考下。 前言 大家都知道,英文的分词由于单词间是以空格进行分隔的,所以分词要相对的容易些,而中文就不同了,中文中一个句子的分隔就是以字为单位的了,而所谓的正向最大匹配和逆向最大匹配便是一种分词匹配的方法,这里以词典匹配说明。 最大匹配算法是自然语言处理中的中文匹配算法中最基础的算
所属分类:
其它
发布日期:2021-01-20
文件大小:66kb
提供者:
weixin_38691006
python中文分词库jieba使用方法详解
安装python中文分词库jieba 法1:Anaconda Prompt下输入conda install jieba 法2:Terminal下输入pip3 install jieba 1、分词 1.1、CUT函数简介 cut(sentence, cut_all=False, HMM=True) 返回生成器,遍历生成器即可获得分词的结果 lcut(sentence) 返回分词列表 import jieba sentence = '我爱自然语言处理' # 创建【Tokenizer.cut 生成器
所属分类:
其它
发布日期:2021-01-20
文件大小:105kb
提供者:
weixin_38707356
«
1
2
3
4
5
6
7
8
»