您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. LJParser文本搜索与挖掘开发平台

  2. 一、简介 LJParser文本搜索与挖掘开发平台包括:全文精准搜索,新词发现,汉语分词标注,词语统计与术语翻译,自动聚类与热点发现,分类过滤,自动摘要,关键词提取,文档去重,正文提取等十余项功能。针对互联网内容处理的需要,融合了自然语言理解、网络搜索和文本挖掘的技术,提供了用于技术二次开发的基础工具集。开发平台由多个中间件组成,各个中间件API可以无缝地融合到客户的各类复杂应用系统之中,可兼容Windows,Linux, Android,Maemo5, FreeBSD等不同操作系统平台,可以供
  3. 所属分类:Web开发

    • 发布日期:2010-05-11
    • 文件大小:17mb
    • 提供者:lingjoin
  1. 自己动手写搜索引擎(罗刚著).doc

  2. 自己动手写搜索引擎 1 第1章 了解搜索引擎 1 1.1 Google神话 1 1.2 体验搜索引擎 1 1.3 你也可以做搜索引擎 4 1.4 本章小结 4 第2章 遍历搜索引擎技术 5 2.1 30分钟实现的搜索引擎 5 2.1.1 准备工作环境(10分钟) 5 2.1.2 编写代码(15分钟) 6 2.1.3 发布运行(5分钟) 9 2.2 搜索引擎基本技术 14 2.2.1 网络蜘蛛 14 2.2.2 全文索引结构 14 2.2.3 Lucene 全文检索引擎 15 2.2.4 Nut
  3. 所属分类:其它

    • 发布日期:2011-04-18
    • 文件大小:6mb
    • 提供者:qq736655941
  1. 基于语义的关键词提取算法

  2. 自然语言理解中基于语义的关键词提取算法,可以参考一下。
  3. 所属分类:其它

    • 发布日期:2011-08-12
    • 文件大小:348kb
    • 提供者:sunbingjie
  1. 自然语言处理全集

  2. 自然语言处理(汉语)算法实现,Java语言实现,经过优化,效率很高。主要包括: 1)汉语分词,采用ICTCLAS系统和Lucene+庖丁解牛系统 2)情感倾向性分析,包括基于统计学习的SVM算法,基于情感词典的词语权重算法,给出文档的情感权重和情感倾向 3)文本聚类,包括KMeas算法实现,文档向量建模,以及采用Weka API 库效率比较 4)词语关系网络,包括词语距离计算,构建词语的近似程度,并刻画词语网络图 5)抽象摘要,采用TFIDF计算文档关键词进行摘要和关键字提取 经过部分优化,对
  3. 所属分类:Java

    • 发布日期:2014-11-29
    • 文件大小:6mb
    • 提供者:lixufeng1992
  1. 自然语言处理全集_代码结构说明.doc

  2. 自然语言处理(汉语)算法实现,Java语言实现,经过优化,效率很高。主要包括: 1)汉语分词,采用ICTCLAS系统和Lucene+庖丁解牛系统 2)情感倾向性分析,包括基于统计学习的SVM算法,基于情感词典的词语权重算法,给出文档的情感权重和情感倾向 3)文本聚类,包括KMeas算法实现,文档向量建模,以及采用Weka API 库效率比较 4)词语关系网络,包括词语距离计算,构建词语的近似程度,并刻画词语网络图 5)抽象摘要,采用TFIDF计算文档关键词进行摘要和关键字提取 经过部分优化,对
  3. 所属分类:Java

    • 发布日期:2014-11-29
    • 文件大小:25kb
    • 提供者:lixufeng1992
  1. Java 词海分析 自然语言分析 人名地名机构名提取自定义词典

  2. 中文分词 最短路分词 N-最短路分词 CRF分词 索引分词 极速词典分词 用户自定义词典 词性标注 命名实体识别 中国人名识别 音译人名识别 日本人名识别 地名识别 实体机构名识别 关键词提取 TextRank关键词提取 自动摘要 TextRank自动摘要 短语提取 基于互信息和左右信息熵的短语提取 拼音转换 多音字 声母 韵母 声调 简繁转换 繁体中文分词 简繁分歧词(简体、繁体、臺灣正體、香港繁體) 文本推荐 语义推荐 拼音推荐 字词推荐 依存句法分析 基于神经网络的高性能依存句法分析器
  3. 所属分类:Java

    • 发布日期:2017-10-11
    • 文件大小:21mb
    • 提供者:vip923803855
  1. Java中通过HanLP实现文本分词、提取关键词、聚类(工具资源+实例)

  2. HanLP是由一系列模型与算法组成的工具包,目标是普及自然语言处理在生产环境中的应用。HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点;提供词法分析(中文分词、词性标注、命名实体识别)、句法分析、文本分类和情感分析等功能。
  3. 所属分类:Java

    • 发布日期:2019-05-20
    • 文件大小:34mb
    • 提供者:weixin_41900160
  1. 关键词提取方法.py

  2. 自然语言处理,关键词提取,机器学习,人工智能,深度学习
  3. 所属分类:深度学习

    • 发布日期:2019-05-20
    • 文件大小:10kb
    • 提供者:qq_41007998
  1. Android代码-Java 实现的自然语言处理中文分词

  2. HanLP: Han Language Processing 汉语言处理包 HanLP是一系列模型与算法组成的NLP工具包,由大快搜索主导并完全开源,目标是普及自然语言处理在生产环境中的应用。HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点。 HanLP提供下列功能: 中文分词 HMM-Bigram(速度与精度最佳平衡;一百兆内存) 最短路分词、N-最短路分词 由字构词(侧重精度,全世界最大语料库,可识别新词;适合NLP任务) 感知机分词、CRF分词 词典分词(侧重速度,每
  3. 所属分类:其它

    • 发布日期:2019-08-06
    • 文件大小:21mb
    • 提供者:weixin_39840924
  1. Java 实现的自然语言处理 中文分词 词性标注 命名实体识别 依存句法分析 关键词提取 自动摘要 短语提取 拼音 简繁转换.zip

  2. Java 实现的自然语言处理 中文分词 词性标注 命名实体识别 依存句法分析 关键词提取 自动摘要 短语提取 拼音 简繁转换。.zip,自然语言处理 中文分词 词性标注 命名实体识别 依存句法分析 新词发现 关键词短语提取 自动摘要 文本分类聚类 拼音简繁
  3. 所属分类:其它

    • 发布日期:2019-09-24
    • 文件大小:21mb
    • 提供者:weixin_38743602
  1. Java 实现的自然语言处理 中文分词 词性标注 命名实体识别 依存句法分析 关键词提取 自动摘要 短语提取 拼音 简繁转换.zip

  2. Java 实现的自然语言处理 中文分词 词性标注 命名实体识别 依存句法分析 关键词提取 自动摘要 短语提取 拼音 简繁转换。.zip,自然语言处理 中文分词 词性标注 命名实体识别 依存句法分析 新词发现 关键词短语提取 自动摘要 文本分类聚类 拼音简繁
  3. 所属分类:其它

    • 发布日期:2019-10-11
    • 文件大小:21mb
    • 提供者:weixin_38743481
  1. HanLP实现文本分词、提取关键词、聚类(工具资源+实例)

  2. HanLP是由一系列模型与算法组成的工具包,目标是普及自然语言处理在生产环境中的应用。HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点;提供词法分析(中文分词、词性标注、命名实体识别)、句法分析、文本分类和情感分析等功能。
  3. 所属分类:Java

    • 发布日期:2020-05-12
    • 文件大小:34mb
    • 提供者:weixin_41900160
  1. 领域关键词抽取_结合LDA与Word2Vec.caj

  2. 随着互联网与信息技术的发展,大数据分析成为目前热门话题之 一。大数据分析主要从海量数据中提取有意义的信息作为数据特征, 通过分析已有数据的特征,实现数据的归纳分析,预测数据集的发展 方向。自然语言处理是实现文本信息智能分析的一项重要研究工作。 对特定领域内文本的分析,可以获取该领域内的重要信息,以及实现 对该领域发展方向的预测。 针对财经领域而言,分析财经领域内海量的文本信息,可以了解 经济发展的前景,实现对经济发展的预测。中文文本分析主要是文本 的分类、聚类等工作,依赖于对文本中词汇的分析。
  3. 所属分类:深度学习

    • 发布日期:2020-09-08
    • 文件大小:255kb
    • 提供者:fengliren
  1. 单片机与DSP中的嵌入式C语言开发ADSP21XX系列DSP

  2. 摘要:详细介绍使用VisualDSP开发工具进行ADSP21XX的C语言编程的方法;分析其C语言运行库的结构,并且结合实例介绍C语言工具的使用方法,包括C语言与汇编语言混合编程的方法,从C运行库提取代码用于自己的汇编语言程序的方法、修改运行库的源代码以适应自己开发需要的方法等。 关键词:DSP VisualDSP 嵌入式C语言 汇编语言引言长期以来,在DSP系统开发中,一直把汇编语言作为主要的开发工具;但汇编语言与自然语言差距很大,不易常,而且汇编语言是依赖于处理器的,不利于软件的可重复利
  3. 所属分类:其它

    • 发布日期:2020-12-10
    • 文件大小:105kb
    • 提供者:weixin_38652090
  1. 自然语言关键词提取

  2. 关键词提取就是从文本里面把跟这篇文章意义最相关的一些词语抽取出来,在文献检索、自动文摘、文本聚类/分类等方面有着重要的应用。 关键词提取算法一般分为有监督和无监督两类 有监督的关键词提取方法主要是通过分类的方式进行,通过构建一个较为丰富和完善的词表,然后判断每个文档与词表中每个词的匹配程度,以类似打标签的方式,达到关键词提取的效果。优点是精度较高,缺点是需要大批量的标注数据,人工成本过高,并且词表需要及时维护。 相比较而言,无监督的方法对数据的要求低,既不需要一张人工生成,维护的词表,也不需要人
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:94kb
    • 提供者:weixin_38546789
  1. nlp_windows_exe_ui:python3.6-制作一个包含NLP基本功能系统(Windows exe)自然语言处理系统。系统功能:分词,词性标注,关键词提取,文本分类-源码

  2. nlp_windows_exe_ui 介绍 python3.6-制作一个包含NLP基本功能系统(Windows exe)自然语言处理系统。系统功能:分词,词性标注,关键字提取,文本分类;由于要打包成exe的关系,我将原本的项目的多一个文件的集成到一个python文件(合并文件)里,只保留了使用该系统所需要的函数,方便打包,通俗地讲就是,生成生成词向量过程,装袋过程,模型训练过程的,以及一些中间步骤的程序代码,这些有些涉及很多库的,这些打包进去。但是整个项目里的东西是完整的(包括数据) 运行这个系
  3. 所属分类:其它

    • 发布日期:2021-03-15
    • 文件大小:20mb
    • 提供者:weixin_42129113
  1. nlp:各种nlp框架(自然语言处理)集成以及使用包括word2vec nltk textblob crf ++等-源码

  2. Lhy-NLP 集成各种nlp框架 使用包括word2vec nltk textblob crf ++等 (1)机器人 (2)中文翻译,及繁体转简体 (3)关键词提取,主题提取,摘要提取 (4)命名体识别 (5)分词 (6)情感分析,正负类分析 (7)近义词,同义词,句子相似性 (8)聚类,监督,无监督 (9)词性标注 (10)词向量提取 . ├── chatbot #########################机器人 │   ├── __init__.py │   └── readMe
  3. 所属分类:其它

  1. Macropodus:自然语言处理工具Macropodus,基于Albert + BiLSTM + CRF深度学习网络架构,中文分词,词性标注,命名实体识别,新词发现,关键词,文本摘要,文本相似度,科学计算器,中文数字阿拉伯NLP的工具(工

  2. Macropodus是一个以Albert + BiLSTM + CRF网络架构为基础,用大量中文语料训练的自然语言处理工具包。将提供中文分词,词性标注,命名实体识别,关键词提取,文本摘要,新词发现,文本相似度,计算器,数字转换,拼音转换,繁简转换等常见的NLP功能。 目录 安装 注意事项默认不安装nlg-yongzhuo, 如果需要该功能自行安装; 默认不指定numpy, pandas, scikit-learn版本, 过高或者过低的版本可能不支持 标准版本的依赖包详见 requirements
  3. 所属分类:其它

  1. jiagu:jiagu深度学习自然语言处理工具知识图谱关系抽取中文分词词性标注命名实体识别情感分析新词发现-源码

  2. Jiagu自然语言处理工具 将提供中文分词,词性标注,命名实体识别,情感分析,知识图谱关系转移,关键字检索,文本摘要,新词发现,情感分析,文本聚类等常用自然语言处理功能。参考了各大工具优缺点制作,将Jiagu回馈给大家。 目录 提供的功能有: 中文分词 词性标注 命名实体识别 知识图谱关系抽取 关键词提取 文字摘要 新词发现 情感分析 文本聚类 等等。。。。 安装方式 点安装 pip install -U jiagu 如果比较慢,可以使用清华的pip源: pip install -U jiagu
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:56mb
    • 提供者:weixin_42127783
  1. 基于Python的改进关键词提取算法的实现

  2. 关键词提取是自然语言研究领域的基础和关键点,在很多领域都有广泛的应用。以本校图书馆提供的8045篇《红色中华》新闻为源数据,首先对数据进行数据清理,去除其中的噪声数据,然后对每篇新闻进行数据结构解析,在解析的基础上计算了词语的TFIDF权重、词位置权重、词性权重、词长权重和词跨度权重,综合考虑这些权重计算出词语的综合权重,以综合权重最大的前8个词语作为新闻的关键词。从准确度、召回率及F1值3个指标对改进算法、经典的TFIDF算法和专家标注进行对比,发现改进算法在3个指标上均优于经典的TFIDF算
  3. 所属分类:其它

« 12 »