您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 词频统计系统(软件设计)

  2. 用VB编词频统计,不要瞎传噢!原代码也在里面,这里跟大家分享了啊!
  3. 所属分类:VB

    • 发布日期:2009-08-19
    • 文件大小:894kb
    • 提供者:jyj15005187252
  1. LJCorpus中文语料库分析软件

  2. LJCorpus试用版本下载地址 下载地址:http://www.lingjoin.com/download/LJCorpus.rar 介绍: LJCorpus中文语料库分析软件是一套专门针对中文生语料库的加工、抽取、统计与翻译全自动的综合语料分析系统,应用了领先的汉语词法分析技术、新词发现技术、统计挖掘技术以及词语翻译对齐技术,目前,东北师范大学中文系已经成功应用该软件对新加坡的语言进行了分析,极大提高了研究的效率。 LJCorpus中文语料库分析软件的四大功能主要包括: 1. 新词发现:
  3. 所属分类:专业指导

    • 发布日期:2010-04-17
    • 文件大小:12mb
    • 提供者:lingjoin
  1. 中文自动分词&全文检索@统计工具(GBK版

  2. 本系统具备中文自动分词、全文检索、统计等基本功能,具体介绍如下: 1、中文自动分词 1)能对给定的中文文本进行自动分词、词性一级、词性二级标注; 2)支持大批量文本的自动分词及词性标注处理,可处理各级子文件夹下的文件; 3)能根据待分词及标注文本的类别,加挂用户自定义词典,进一步提高分词和标注的精确度; 4)用户可对系统词典进行扩展,可添加、删除、查看系统词典,可将系统词典输出为TXT文本编辑后再转换为系统用的电子词典; 5)支持人名、地名、机构名等未登录词识别,支持基于GBK字符集的简、繁体
  3. 所属分类:专业指导

    • 发布日期:2010-04-22
    • 文件大小:3mb
    • 提供者:lonewar
  1. LJParser文本搜索与挖掘开发平台

  2. 一、简介 LJParser文本搜索与挖掘开发平台包括:全文精准搜索,新词发现,汉语分词标注,词语统计与术语翻译,自动聚类与热点发现,分类过滤,自动摘要,关键词提取,文档去重,正文提取等十余项功能。针对互联网内容处理的需要,融合了自然语言理解、网络搜索和文本挖掘的技术,提供了用于技术二次开发的基础工具集。开发平台由多个中间件组成,各个中间件API可以无缝地融合到客户的各类复杂应用系统之中,可兼容Windows,Linux, Android,Maemo5, FreeBSD等不同操作系统平台,可以供
  3. 所属分类:Web开发

    • 发布日期:2010-05-11
    • 文件大小:17mb
    • 提供者:lingjoin
  1. (论文)基于Trie的Word Search Puzzle与复杂记事本的实现

  2. Trie,又称单词查找树,是一种树形结构,是一种哈希树的变种。典型应用是用于统计和排序大量的字符串(但不仅限于字符串),所以经常被搜索引擎系统用于文本词频统计。它的优点是:最大限度地减少无谓的字符串比较,查询效率比哈希表高。 问题描述: “记事本”是一个用来创建简单文档的文本编辑器。“记事本”最常用来查看或编辑文本 (.txt) 文件,在我们开发的这个记事本中,需要支持的功能如下: 1、 常规编辑,不需要支持格式; 2、 支持查找的简单逻辑表达式; 3、 替换特定的字符或词; 4、 具有英文单
  3. 所属分类:其它

    • 发布日期:2010-05-26
    • 文件大小:713kb
    • 提供者:henry_xjtu
  1. 灵柩软件 可用于汉语分词处理

  2. LJParser文本搜索与挖掘开发平台的十大功能: 1. 全文精准检索 支持文本、数字、日期、字符串等各种数据类型,多字段的高效搜索,支持AND/OR/NOT以及NEAR邻近等查询语法,支持维语、藏语、蒙语、阿拉伯、韩语等多种少数民族语言的检索。可以无缝地与现有文本处理系统与数据库系统融合。 2. 新词发现: 从文件集合中挖掘出内涵的新词语列表,可以用于用户专业词典的编撰;还可以进一步编辑标注,导入分词词典中,从而提高分词系统的准确度,并适应新的语言变化。 3. 分词标注: 对原始语料进行分词
  3. 所属分类:Web开发

    • 发布日期:2010-11-05
    • 文件大小:672kb
    • 提供者:zhangguoqiang52
  1. 文本查重 文本复制检测技术

  2. 在研究目前文档复制检测技术的基础上,对比基于字符串比较和基于词频统计的两类方法,确定基本的检测方案:进而设计合适的文档存储和对比策略,实现在较大规模的文档库中快速查找相似度达到一定阈值的文档。 (1)基于字符串比较方法的研究:以Sif工具的方法为基础,实现基于字符串比较的相似文本检测; (2)基于词频统计的方法的研究:以SCAM方法为基础,实现基于词频统计的文本查重检测,并与方法(1)进行对比,分析两者的优缺点,选择其中一种作为后续研究的基本查重方法 (3)研究大规模文档的存储策略和相似文本查
  3. 所属分类:专业指导

  1. 学术性内容分析与文本分析工具软件

  2. 1、最主要的:论文检测系统!!! 2.功能性分析菜单增加了英文词频统计功能 3.工具菜单增加了批量文件处理器 4.增加了.NET Framewok的安装检测功能 5.修改了聊天记录的部分界面 6.修改了论文与资源的界面 7.在工具菜单中增加了网站抓取的保存位置的直达菜单 9.画了产品升级的界面
  3. 所属分类:专业指导

    • 发布日期:2011-09-21
    • 文件大小:3mb
    • 提供者:kaula457
  1. 词频统计(设计题目)

  2. 1 创建L4 1项目 2 给定一个存放了三段文章的字符串数组 点击 “文件显示”按钮 将第一段文章内容显示在文本框中 再次点击“文件显示”按钮 将第二段文章显示在文本框中 以此类推 filestr[0] "Singles Day in China is the celebration or mourning of being unattached Started by students in Nanjing in the mid 1990s the date was selected
  3. 所属分类:C#

    • 发布日期:2013-10-14
    • 文件大小:39kb
    • 提供者:okbianhao
  1. C#词频统计

  2. 2.给定一个存放了三段文章的字符串数组,点击 “文件显示”按钮,将第一段文章内容显示在文本框中。再次点击“文件显示”按钮,将第二段文章显示在文本框中,以此类推 2.点击“词频统计”按钮,系统将文本框中的字符串包括的单词及其个数统计出来。如图2所示。 提示1:文章需要经过若干次处理,大小写处理,替换特殊符号处理,分隔单词处理 提示2:利用hashtable进行统计,单词作为key,个数作为value
  3. 所属分类:.Net

    • 发布日期:2013-10-23
    • 文件大小:40kb
    • 提供者:lengmoyixia
  1. C语言 递归调用程序和文件系统

  2. 知识覆盖  基本程序设计技术,递归程序设计,程序结构,文件,结构体,类型定义 实验内容 1.分别调试课件中的给定n求Fibonacci(n)递归与非递归函数,并编写测试函数对两种或多种不同方法所需时间进行比较,且当某一轮计算所需时间超过给定最大时间量时(如超过10秒),停止计算。计算过程中要求输出类似如下格式的运行时间比较表(请用实际运行时间代替***): n 非递归法耗时(ms) 递归法耗时(ms) 1 *** *** 2 *** *** … x *** *** 提示:计时方法请参见参考书
  3. 所属分类:C/C++

    • 发布日期:2014-05-14
    • 文件大小:267kb
    • 提供者:dzzzjr
  1. 内容挖掘系统

  2. ROST CM(数字人文辅助研究平台),可分析论文、微博、博客、论坛、 网页、书籍、聊天记录、电子邮件、本地文本类格式文件、数据库中各 类文本字段,分析方法目前支持:分词、字频统计、词频统计、聚类、 分类、情感分析(含简单和复杂)、共现分析、同被引分析,依存分析、 语义网络、社会网络、共现矩阵等分析方法。
  3. 所属分类:互联网

    • 发布日期:2014-12-09
    • 文件大小:8mb
    • 提供者:z13397115235
  1. 手把手教你Hadoop环境搭建、词频统计demo及原理

  2. 本文档通过网络资源收集的资料整理,具有较强的实战性,可以一步一步让你从零基础到学会搭建Hadoop服务器,并能利用FS文件系统及mapreduce做词频统计,掌握其基本原理; 其中由于本人已搭建好的原因,有的图截不到,为了表述清楚,于是取自教程中的图片(黑背景部分)作为说明。本文档助你快速踏入大数据大门,祝你学业有成,加油!
  3. 所属分类:Hadoop

    • 发布日期:2017-11-16
    • 文件大小:5mb
    • 提供者:u011578317
  1. 抄袭论文识别研究与进展

  2. 抄袭论文识别研究对于净化学术风气、保护知识产权具有重要意义. 国外对于抄袭论 文(英文) 识别技术与系统的研究已有多年历史, 并取得一定进展, 而国内发表的相关文献尚 少. 综述了抄袭论文识别技术, 如数字指纹和词频统计等技术; 介绍了相关识别系统, 如siff、 COPS、dSCAM、KOALA 和Check 等; 分析了各抄袭识别技术特点及应用范围. 最后结合中 文学术论文的特点, 从应用角度出发, 讨论了若干待解决的关键问题及发展趋
  3. 所属分类:专业指导

    • 发布日期:2009-03-17
    • 文件大小:425kb
    • 提供者:xinyiyunfan
  1. 词频统计系统

  2. 实现单表置换密码中的词频统计分析。要求能对一段英文统计出所给字母的出现次数百分比,并给出分布图或表。同时能对手动输入的进行词频统计。通过此课题,熟练掌握文件、数组、指针的各种操作,以及一些递归算法思想的应用。 (1)统计显示英文文档中所有出现的字母及出现次数; (2)计算字母出现次数百分比及发布图(或表); (3)对词频统计结果进行词频升序、词频降序、字母升序、字母降序排列; (4)提供查询功能,如能对手动输入的字母或字母组合进行词频统计; (5)有个简单直观的界面,以便显示使用上述函数功能。
  3. 所属分类:Java

    • 发布日期:2019-01-02
    • 文件大小:385kb
    • 提供者:sinat_38352685
  1. 数据结构课设:基于不同策略的英文单词的词频统计和检索系统.cpp

  2. 数据结构课程设计,内容: 一篇英文文章存储在一个文本文件中,然后分别基于线性表、二叉排序树和哈希表不同的存储结构,完成单词词频的统计和单词的检索功能。同时计算不同检索策略下的平均查找长度ASL,通过比较ASL的大小,对不同检索策略的时间性能做出相应的比较分析
  3. 所属分类:C/C++

    • 发布日期:2020-05-06
    • 文件大小:27kb
    • 提供者:weixin_43538781
  1. 词频统计(基于hadoop集群,python实现)

  2. 基于hadoop集群,用python写mapReduce实现单词统计,文件里包含python代码和操作步骤,适合初学者学习,我亲自测试,在ubuntu系统上,搭建的hadoop集群,能够运行出结果。
  3. 所属分类:群集服务

    • 发布日期:2020-07-11
    • 文件大小:1mb
    • 提供者:ChengXuxiao
  1. 系统整理: python提取英文文献词频,并精准翻译!

  2. 文章目录项目简介:英文文献词频搞定三大步骤One: 英文文献PDF转成纯文本TXT格式Two: 纯文本TXT格式的清洗与英文词频统计Three: 对英文词频进行精准翻译 项目简介:英文文献词频搞定三大步骤 一直以来,读透一篇英文文献并掌握其传递的核心思想一直是一件棘手的事情。相信饱受英文文献折磨的同学,也对于文献中出现的生僻词汇和专业词汇也十分困扰。本文从英文文献的词频的角度提供技术解决方案,主要包括三个主要的部分: 第一步,将英文文献由PDF格式转化成纯文本的格式; 第二步,对纯文本的英文文献
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:134kb
    • 提供者:weixin_38546622
  1. novel_recommendation_system:小说推荐系统-源码

  2. [目录] 小说推荐系统 代码 RecSys_CountVectorizer.ipynb:词频统计后计算余弦相似度。 RecSys_Word2Vec.ipynb:PySpark Word2Vec再计算余弦相似度 数据 存储于data文件夹下。 爬虫获取笔趣阁上的一万部小说信息,如标题,作者,字数,简介信息等。 结果 存储于results文件夹下 CountVectorizer结果 Word2Vec结果
  3. 所属分类:其它

  1. XDist:一种有效的XML关键字搜索系统,具有基于关键字分布的重新排名模型

  2. 关键字搜索使Web用户可以轻松访问XML数据,而无需了解复杂的数据模式。 然而,关键字搜索的固有歧义性使得选择与关键字匹配的合格的相关结果变得很困难。 为了解决这个问题,研究人员在建立区分相关段落和不相关段落的排名模型上付出了很多努力,例如被高引用的TF * IDF和BM25。 但是,这些基于统计的排序方法大多将词频,文档逆频率和长度作为排序因子,而忽略了不同关键字之间的分布和连接信息。 因此,这些广泛使用的排序方法在具有较高的频率时无法识别无关的结果,从而导致性能受限。 因此,本文提出了一种新
  3. 所属分类:其它

« 12 3 »