您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Anaconda snownlp-0.12.3.tar.gz

  2. SnowNLP是一个python写的类库,可以方便的处理中文文本内容,是受到了[TextBlob](https://github.com/sloria/TextBlob)的启发而写的,由于现在大部分的自然语言处理库基本都是针对英文的,于是写了一个方便处理中文的类库,并且和TextBlob不同的是,这里没有用NLTK,所有的算法都是自己实现的,并且自带了一些训练好的字典。注意本程序都是处理的unicode编码,所以使用时请自行decode成unicode。
  3. 所属分类:Python

    • 发布日期:2017-08-08
    • 文件大小:35mb
    • 提供者:zm526001314
  1. Text Analytics with Python

  2. 英文版本的文本分析,很清楚。内容包括了句法分析,词法分析等一步步往下走流程。也包括了NLTK的使用。
  3. 所属分类:机器学习

    • 发布日期:2018-07-19
    • 文件大小:6mb
    • 提供者:chen19941018
  1. 【数据挖掘/机器学习/文本分类】2000~2019年英文文献摘要数据集,16类,每类100篇

  2. 本数据集为2000~2019年大部分英文文献摘要集合的子集,分agriculture、anatomy、business、chemistry、economics、education、geology等十六类。 每条数据由五部分组成:序号、分类、文献名称、摘要、期刊名称。 注意是英文!!!摘要!!! 可用于数据挖掘等工程。 具体应用可参考博客:https://blog.csdn.net/erwugumo/article/details/104610584 请使用python进行数据分析。
  3. 所属分类:机器学习

    • 发布日期:2020-03-14
    • 文件大小:646kb
    • 提供者:erwugumo
  1. 文本情感色彩分类技术报告.pdf

  2. python文本情感色彩分析的技术报告(英文文本),对应的代码也已经上传。需要的朋友可以下载后参考一下。希望可以帮到有需要的小伙伴。
  3. 所属分类:机器学习

    • 发布日期:2020-06-08
    • 文件大小:768kb
    • 提供者:leilei7407
  1. NLP代码.rar(python机器学习——文本情感分析(英文文本情感分析))

  2. python机器学习——文本情感分析(英文文本情感分析)代码下载,代码完整可以运行。希望可以帮助到正在学习的伙伴们。
  3. 所属分类:深度学习

    • 发布日期:2020-06-07
    • 文件大小:78mb
    • 提供者:leilei7407
  1. Python3中的bytes和str类型详解

  2. Python 3最重要的新特性之一是对字符串和二进制数据流做了明确的区分。文本总是Unicode,由str类型表示,二进制数据则由bytes类型表示。Python 3不会以任意隐式的方式混用str和bytes,你不能拼接字符串和字节流,也无法在字节流里搜索字符串(反之亦然),也不能将字符串传入参数为字节流的函数(反之亦然)。 下面让我们深入分析一下二者的区别和联系。 编码发展的历史 在谈bytes和str之前,需要先说说关于编码是如何发展的。。 在计算机历史的早期,美国为代表的英语系国家主导了整
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:90kb
    • 提供者:weixin_38724663
  1. python实现马耳可夫链算法实例分析

  2. 本文实例讲述了python实现马耳可夫链算法的方法。分享给大家供大家参考。具体分析如下: 在《程序设计实践》(英文名《The Practice of Programming》)的书中,第三章分别用C语言,C++,AWK和Perl分别实现了马耳可夫链算法,来通过输入的文本,“随机”的生成一些有用的文本。 说明: 1. 程序使用了字典,字典和散列可不是一个东西,字典是键值对的集合,而散列是一种能够常数阶插入,删除,不过可以用散列来实现字典。 2. 字典的setdefault()方法使得程序少了许多条
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:39kb
    • 提供者:weixin_38626242
  1. python snownlp情感分析简易demo(分享)

  2. SnowNLP是国人开发的python类库,可以方便的处理中文文本内容,是受到了TextBlob的启发而写的,由于现在大部分的自然语言处理库基本都是针对英文的,于是写了一个方便处理中文的类库,并且和TextBlob不同的是,这里没有用NLTK,所有的算法都是自己实现的,并且自带了一些训练好的字典。注意本程序都是处理的unicode编码,所以使用时请自行decode成unicode。MIT许可下发行。 其 github 主页 我自己修改了上文链接中的python代码并加入些许注释,以方便你的理解
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:184kb
    • 提供者:weixin_38688969
  1. python使用Tesseract库识别验证

  2. 一、Tesseract简介 Tesseract是一个OCR库(OCR是英文Optical Character Recognition的缩写),它用来对文本资料进行扫描,然后对图像文件进行分析处理,获取文字及版面信息的过程,Tesseract是目前公认最优秀,识别相对精准的OCR库。 二、Tesseract的使用 1.下载并安装Tesseract:点击下载 2.在Windows系统下设置环境变量: #根据下载安装文件的路径配置环境变量 set TESSDATA_PREFIX F:\Tessera
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:68kb
    • 提供者:weixin_38516706
  1. Python数据分析入门

  2. 1.Python基础常识 (1)print() 函数 print()函数让机器表达**()**中的所有信息 # 表达数字 print(666) # 表达文字 print('机器学习') # 同时表达多个词语与数字,用,将它们分开 print('人生苦短','我学python','666') (2)3中最常见的数据类型 字符串:文本数据类型,要带上引号,例如 ‘xiaodong’,‘666’ #单双引号都可以 整数:不含小数点的数字:例如 666 浮点数:含小数点的数字,例如 6.66 (3)任
  3. 所属分类:其它

    • 发布日期:2020-12-22
    • 文件大小:894kb
    • 提供者:weixin_38737635
  1. python机器学习——文本情感分析(英文文本情感分析)

  2. 本人机器学习课程的小作业,记录一下,希望可以帮到一些小伙伴。 项目介绍,给一段英文文本(英文影评评论)来预测情感是正向还是负向 模型使用的是LSTM+RNN。 代码包括数据处理,模型训练,对新数据做出预测,并将预测结果(正向情感)保存到result.txt中 软件:anaconda3 一.数据集介绍 数据集链接: https://pan.baidu.com/s/1oIXkaL_SL9GSN3S56ZwvWQ 提取码: qgtg 训练集labeledTrainData.tsv(24500条带标签的
  3. 所属分类:其它

    • 发布日期:2020-12-22
    • 文件大小:178kb
    • 提供者:weixin_38513669
  1. 利用Sentiwordnet进行文本情感分析(简)

  2. 利用Sentiwordnet进行文本情感分析(简)1. 简介2. 下载NLTK包和它内部的词典3. 全过程代码详解1. 导入所需包,函数2. 分词3. 计数,给予词性标签4. 计算单词得分4. 完整代码(函数形式) 1. 简介 利用python中的NLTK包对英文进行分词,得到词频,标注词性,得到单词得分,最后可再根据实际情况计算文本情感分。注:分词只能得到一个个单词,不能得到短语。(我的第一篇blog!!!) 2. 下载NLTK包和它内部的词典 使用pip下载nltk pip install
  3. 所属分类:其它

    • 发布日期:2020-12-22
    • 文件大小:135kb
    • 提供者:weixin_38587130
  1. MOOC《Python语言程序设计》第6周练习题

  2. 这周讲解了组合数据类型,重点介绍表达和处理一组数据的方法,涉及到多种数据类型,包括:集合类型、序列类型(含元组类型和列表类型)和字典类型;讲解2个颇有用处的实例:基本统计值计算和文本词频统计,其中,即有英文Hamlet的词频统计,也有中文《三国演义》的人物出场统计;进一步讲解用于中文分词的jieba库,从此以后,处理中英文文本、做些统计分析将不再是问题! 练习1:基本统计值的计算(也就是课程中的实例9:基本统计值计算) 描述: 获取以逗号分隔的多个数据输入(输入为一行),计算基本统计值(平均值、
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:100kb
    • 提供者:weixin_38723516
  1. Python中文分词库jieba,pkusegwg性能准确度比较

  2. 中文分词(Chinese Word Segmentation),将中文语句切割成单独的词组。英文使用空格来分开每个单词的,而中文单独一个汉字跟词有时候完全不是同个含义,因此,中文分词相比英文分词难度高很多。 分词主要用于NLP 自然语言处理(Natural Language Processing),使用场景有: 搜索优化,关键词提取(百度指数) 语义分析,智能问答系统(客服系统) 非结构化文本媒体内容,如社交信息(微博热榜) 文本聚类,根据内容生成分类(行业分类) Python的
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:640kb
    • 提供者:weixin_38717031
  1. Python 数据分析第六期–文本数据分析

  2. Python 数据分析第六期–文本数据分析 1. Python 文本分析工具 NLTK NLTK (Natural Language Toolkit) NLP 领域最常用的一个 Python 库 , NLP(natural language process), 开源项目 , 自带分词,分类功能,强大的社区支持。 1.1 NLTK 安装 pip install nltk 语料库的安装,在命令行里安装,如果安装不成功,可离线下载。 import nltk nltk.download()
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:173kb
    • 提供者:weixin_38625448
  1. Tianchi-Multi-Task-Learning:第一名克莱登大学二队方案分享-源码

  2. 实验环境 CUDA版本:11.0驱动程序版本:450.80.02 GPU:TITAN XP Python:3.7.9 pytorch:1.7.0操作系统:ubuntu 20.04 安装依赖包 pip install -r requirements.txt 解决方案及算法说明 数据预处理:数据清洗(剔除中文,非英文,非数字符号) 文本截断:通过对各任务句子长度的分析,选择句子长度256作为截断标准,不足补0 数据输入 由于任务二和任务三存在轴向的类别不均衡问题,因此训练集和验证集的划分采用分层的
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:85kb
    • 提供者:weixin_42169971
  1. holmes-extractor:基于谓词逻辑从英语和德语文本中提取信息-源码

  2. 福尔摩斯 作者: 4.1 (从Manager.get_supervised_topic_training_basis()返回) (从SupervisedTopicTrainingBasis.train()返回) (从SupervisedTopicModelTrainer.classifier()和Manager.deserialize_supervised_topic_classifier() ) 1.简介 1.1基本思想 Holmes是一个Python 3库(已通过版本3.7.
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:260kb
    • 提供者:weixin_42143161
  1. jieba-php:“结巴”中文分词:做最好PHP。PHP中文分词,中文断词组件。“ Jieba”(中文为“ to stutter”)中文文本分割:构建为最佳PHP中文单词分割模块-源码

  2. “结巴”中文分词:做最好PHP中文分词,中文断词组件,当前翻译版本为jieba-0.33版本,未来再慢慢往上升级,效能也需要再改善,请有兴趣的开发者一起加入开发!若想使用Python版本请前往 现在已经可以支持繁体中文!只要将字典切换为big模式即可! “ Jieba”(中文为“ to stutter”)中文文本分割:内置为最好PHP中文单词分割模块。 向下滚动以获取英文文档。 线上展示 网站网址: : 网站原始码: : 特征 支持三种分词模式: 1)最小精确模式,试图将句子最精确地
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:20mb
    • 提供者:weixin_42137028
  1. Python文本特征抽取与向量化算法学习

  2. 本文为大家分享了Python文本特征抽取与向量化的具体代码,供大家参考,具体内容如下 假设我们刚看完诺兰的大片《星际穿越》,设想如何让机器来自动分析各位观众对电影的评价到底是“赞”(positive)还是“踩”(negative)呢? 这类问题就属于情感分析问题。这类问题处理的第一步,就是将文本转换为特征。 因此,这章我们只学习第一步,如何从文本中抽取特征,并将其向量化。 由于中文的处理涉及到分词问题,本文用一个简单的例子来说明如何使用Python的机器学习库,对英文进行特征提取。 1、
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:99kb
    • 提供者:weixin_38738830
  1. backprop:Backprop是一个Python库,可使用最新的机器学习模型轻松解决AI任务-源码

  2. 反向传播 Backprop是一个Python库,可使用最新的机器学习模型轻松解决AI任务。 Backprop建立在通过转移学习解决任务的基础上。它实现了高级模型,这些模型足够通用,可以用最少的用户数据来解决现实世界中的任务。 您可以使用Backprop解决的现成任务: 英文会话式问答(用于FAQ聊天机器人,文本分析等) 超过100种语言的文本分类(用于电子邮件分类,意图检测等) 图像分类(用于物体识别,OCR等) 50多种语言的文本向量化(语义搜索电子商务,文档等) 英文摘要(长文档的TL
  3. 所属分类:其它