您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. csw5.0中文分词组件

  2. 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自动摘要、自动分类及信息加工处理等各个领域。 二、本组件特点: 1.适应性强 本组全部件采用
  3. 所属分类:C#

    • 发布日期:2009-09-01
    • 文件大小:3mb
    • 提供者:madl_lxj_163
  1. LJParser文本搜索与挖掘开发平台

  2. 一、简介 LJParser文本搜索与挖掘开发平台包括:全文精准搜索,新词发现,汉语分词标注,词语统计与术语翻译,自动聚类与热点发现,分类过滤,自动摘要,关键词提取,文档去重,正文提取等十余项功能。针对互联网内容处理的需要,融合了自然语言理解、网络搜索和文本挖掘的技术,提供了用于技术二次开发的基础工具集。开发平台由多个中间件组成,各个中间件API可以无缝地融合到客户的各类复杂应用系统之中,可兼容Windows,Linux, Android,Maemo5, FreeBSD等不同操作系统平台,可以供
  3. 所属分类:Web开发

    • 发布日期:2010-05-11
    • 文件大小:17mb
    • 提供者:lingjoin
  1. 灵柩软件 可用于汉语分词处理

  2. LJParser文本搜索与挖掘开发平台的十大功能: 1. 全文精准检索 支持文本、数字、日期、字符串等各种数据类型,多字段的高效搜索,支持AND/OR/NOT以及NEAR邻近等查询语法,支持维语、藏语、蒙语、阿拉伯、韩语等多种少数民族语言的检索。可以无缝地与现有文本处理系统与数据库系统融合。 2. 新词发现: 从文件集合中挖掘出内涵的新词语列表,可以用于用户专业词典的编撰;还可以进一步编辑标注,导入分词词典中,从而提高分词系统的准确度,并适应新的语言变化。 3. 分词标注: 对原始语料进行分词
  3. 所属分类:Web开发

    • 发布日期:2010-11-05
    • 文件大小:672kb
    • 提供者:zhangguoqiang52
  1. bibexcel文本分析软件

  2. bibexcel是一款方便学习,功能全面的软件,支持基本的文本挖掘需要。
  3. 所属分类:项目管理

    • 发布日期:2012-03-21
    • 文件大小:1mb
    • 提供者:akchengyu
  1. NLPIR大数据搜索与挖掘共享开发平台

  2. 一、简介 NLPIR文本搜索与挖掘开发平台针对互联网内容处理的需要,融合了自然语言理解、网络搜索和文本挖掘的技术,提供了用于技术二次开发的基础工具集。开发平台由多个中间件组成,各个中间件API可以无缝地融合到客户的各类复杂应用系统之中,可兼容Windows,Linux, Android,Maemo5, FreeBSD等不同操作系统平台,可以供Java,C,C#等各类开发语言使用。 NLPIR是一套专门针对原始文本集进行处理和加工的软件,提供了中间件处理效果的可视化展示,也可以作为小规模数据的处
  3. 所属分类:C/C++

    • 发布日期:2014-10-24
    • 文件大小:40mb
    • 提供者:u012548562
  1. wordsmith软件

  2. 1234567,统计词频、语境分析、关键词分析、构建词典
  3. 所属分类:管理软件

  1. NLPIR分词例子

  2. 中文分词、词性标注、词频统计、关键词提取、文本分类、情感分析、摘要提取
  3. 所属分类:Java

    • 发布日期:2016-10-20
    • 文件大小:26mb
    • 提供者:yulongkuke
  1. 中文分词学习版

  2. 此为学习版,请勿用于商业用途或扩散。 以下描述转至互联网。 ============== 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自
  3. 所属分类:机器学习

  1. NLP自然语言处理停词库

  2. 停词库,包含一般性常用词。可用于R语言与python的自然语言处理中的词频、关键词分析。绘制词云效果也是比较不错的。
  3. 所属分类:Python

    • 发布日期:2020-03-06
    • 文件大小:19kb
    • 提供者:renewallee
  1. 红楼梦词频分析.py

  2. 通过python及其jieba三方库,筛选关键词,整合《红楼梦》人物出场排名,也可整合《红楼梦》词汇使用情况,从而分析《红楼梦》的角色戏份及用语习惯。
  3. 所属分类:Python

  1. python中文分词,使用结巴分词对python进行分词(实例讲解)

  2. 在采集美女站时,需要对关键词进行分词,最终采用的是python的结巴分词方法。 中文分词是中文文本处理的一个基础性工作,结巴分词利用进行中文分词。 其基本实现原理有三点: 1.基于Trie树结构实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图(DAG) 2.采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合 3.对于未登录词,采用了基于汉字成词能力的HMM模型,使用了Viterbi算法 安装(Linux环境) 下载工具包,解压后进入目录下,运行:python set
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:70kb
    • 提供者:weixin_38565631
  1. 学习NLP的第10天——文章关键词提取:词频统计

  2. 关键词提取是词语颗粒度的信息抽取的一种重要的需求,即提取文章中重要的词语。 关键词提取的常用方法包括词频统计、TF-IDF和TextRank等。 其中,词频和TextRank属于单文档算法,即只需一篇文章即可提取出其中的关键词;而TF-IDF则属于多文档宣发,需要其他文档的辅助来提取当前文章的关键词。 词频统计的Python实现 词频统计的逻辑是:在一篇文章中,越重要的关键词往往会在文章中反复出现;因为为了解释关键词,作者经常会反复地提及它们。所以通过统计文章中各个词语的出现频率,即可初步地获得
  3. 所属分类:其它

    • 发布日期:2020-12-22
    • 文件大小:59kb
    • 提供者:weixin_38653602
  1. 相似度:相似度:相似度计算工具包,java编写。用于词,短语,句子,词法分析,情感分析,语义分析等相关的相似度计算-源码

  2. 相似 适用词,语法,句子,词法分析,情感分析,语义分析等相关的相似度计算。 相似度是由一系列算法组成的Java版相似度计算工具包,目标是传播自然语言处理中相似度计算方法。相似度是工具实用,性能高效,架构清晰,语料时新,可自定义的特点。 相似性提供下列功能: 词相似度计算 词林编码法相似度 汉语语义法相似度 知网词相似度 字面编辑距离法 初步相似度计算 简单而言相似度 句子相似度计算 词性和词序结合法 编辑距离算法 Gregor编辑距离法 优化编辑距离法 文本相似度计算 余弦相似度 编辑距离算
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:22mb
    • 提供者:weixin_42139357
  1. TF-IDF-K-means-:大数据实验班推文,供学生下载,包括源代码和一些语料库,重启词库,爬虫代码,通过词频分析关键词说明幻灯片等等-源码

  2. TF-IDF-K- 包括源代码和一些语料库,重置词库,爬虫代码,通过词频分析关键词说明幻灯片等等供大数据实验班同学下载
  3. 所属分类:其它