您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. JE中文分词je-analysis-1.5.1.jar

  2. 1.5.1 —— 2006-01-22 修正细粒度分词错误的问题 1.5.0 —— 2007-01-18 全面支持Lucene 2.0 增强了词典维护的API 增加了商品编码的匹配 增加了Mail地址的匹配 实现了词尾消歧算法第二层的过滤 整理优化了词库 1.4.0 —— 2006-08-21 增加词典的动态扩展能力 1.3.3 —— 2006-07-23 修正无法多次增加词典的问题 1.3.2 —— 2006-07-03 修正细粒度分词错误的问题 1.3.1 —— 2006-0 6-23 修
  3. 所属分类:其它

    • 发布日期:2009-04-28
    • 文件大小:871kb
    • 提供者:tiancen2001
  1. Dictionary of Algorithms and Data Structures 算法全书 数据结构词典

  2. Dictionary of Algorithms and Data Structures 算法全书 数据结构词典
  3. 所属分类:其它

    • 发布日期:2009-05-16
    • 文件大小:1mb
    • 提供者:weartoby
  1. B-树实现的中文词典

  2. B-树作为查找作为查找存储结构,中文单词进行哈希,本中文词典规模在十万级别以上,最长逆向匹配算法实现中文分词。
  3. 所属分类:其它

    • 发布日期:2010-01-14
    • 文件大小:780kb
    • 提供者:kangwp
  1. Java基于列表实现(无序)词典结构(算法源码)

  2. /* * 基于列表实现(无序)词典结构 */ package dsa; public class Dictionary_DLNode implements Dictionary { private List L;//存放条目的列表 private EqualityTester T;//判等器 //构造方法 public Dictionary_DLNode() { this(new EqualityTesterDefault()); } //默认构造方法 public Dictionary_DL
  3. 所属分类:其它

    • 发布日期:2010-01-21
    • 文件大小:2kb
    • 提供者:hexiang221
  1. Java基于散列表实现的(无序)词典结构(算法源码)

  2. /* * 基于散列表实现的(无序)词典结构 * 采用分离链策略解决冲突 */ package dsa; public class Dictionary_HashTable implements Dictionary { private Dictionary[] A;//桶数组,每个桶本身也是一个(基于列表实现的)词典结构 private int N;//散列表长 private final double maxLemda = 0.75;//装填因子上限 private int size;//词
  3. 所属分类:其它

    • 发布日期:2010-01-21
    • 文件大小:2kb
    • 提供者:hexiang221
  1. 好用实用的ACCESS行业搜索引擎

  2. 本搜索引擎是采用倒排结构算法,ASP_VB脚本,Access数据库的小型行业搜索引擎。 适用于小型企业、商户网站的站内检索或特定行业的HTML检索。 具有平台适应性好,易于维护,速度快,源码开放等优点。 最大网页检索数:约40万(链表模式) 最大主关键词:32500个最大词典扩充:约50万词 平均单个网页处理时间:小于15秒 平均检索时间:小于300毫秒
  3. 所属分类:Web开发

    • 发布日期:2012-02-15
    • 文件大小:808kb
    • 提供者:cn19762
  1. 汉语文本自动分词算法

  2. 最牛的分词算法,可直接应用 :分析了中文分词词典的机制,提出了一种改进的整词分词字典结构,并针对机械分词算法的特点,将其与概率算法相结 合,探讨了一种中文自动分词概率算法。采用哈希及二分法对词典进行分词匹配。实验表明,该算法具有较高的分词效率和准确 率,对于消去歧义词也有较好的性能。
  3. 所属分类:其它

    • 发布日期:2012-03-30
    • 文件大小:287kb
    • 提供者:zmzbs123
  1. 算法合集之《Trie图的构建、活用与改进

  2. 算法合集之《Trie图的构建、活用与改进》 我们知道trie树(也叫字母树)这种数据结构。它是词典的一种存储方式。词典中的每一个单词在trie树中表现为一条从根结点出发的路径,路径中边上的字母连起来就形成对应的单词
  3. 所属分类:C/C++

    • 发布日期:2013-04-12
    • 文件大小:40kb
    • 提供者:xwc111
  1. 中文分析算法语料库

  2. 该ppt为中文分析算法的语料库和词典结构简介
  3. 所属分类:其它

    • 发布日期:2013-12-04
    • 文件大小:282kb
    • 提供者:tianshixin115
  1. Lucene中文分词组件 JE-Analysis 1.4.0

  2. 该组件免费安装使用传播,无限制商业应用,但暂不开源,也不提供任何保证 分词效率: 第一次分词需要1-2秒(读取词典),之后速度基本与Lucene自带分词持平 运行环境: Lucene 1.9+ 内存消耗: 30M+ 1.4.0 —— 2006-08-21 增加词典的动态扩展能力 1.3.3 —— 2006-07-23 修正无法多次增加词典的问题 1.3.2 —— 2006-07-03 修正细粒度分词错误的问题 1.3.1 —— 2006-06-23 修正在某些情况下分词遗漏的问题 1.3 ——
  3. 所属分类:其它

    • 发布日期:2006-09-22
    • 文件大小:0byte
    • 提供者:chenxhcc
  1. Lucene中文分词组件 JE-Analysis 1.5.1

  2. 发布于:http://www.jesoft.cn/posts/list/5.page 1.5.1 —— 2006-01-22 修正细粒度分词错误的问题 1.5.0 —— 2007-01-18 全面支持Lucene 2.0 增强了词典维护的API 增加了商品编码的匹配 增加了Mail地址的匹配 实现了词尾消歧算法第二层的过滤 整理优化了词库 1.4.0 —— 2006-08-21 增加词典的动态扩展能力 1.3.3 —— 2006-07-23 修正无法多次增加词典的问题 1.3.2 —— 200
  3. 所属分类:其它

    • 发布日期:2007-01-22
    • 文件大小:871kb
    • 提供者:diystar
  1. 自然语言处理全集_代码结构说明.doc

  2. 自然语言处理(汉语)算法实现,Java语言实现,经过优化,效率很高。主要包括: 1)汉语分词,采用ICTCLAS系统和Lucene+庖丁解牛系统 2)情感倾向性分析,包括基于统计学习的SVM算法,基于情感词典的词语权重算法,给出文档的情感权重和情感倾向 3)文本聚类,包括KMeas算法实现,文档向量建模,以及采用Weka API 库效率比较 4)词语关系网络,包括词语距离计算,构建词语的近似程度,并刻画词语网络图 5)抽象摘要,采用TFIDF计算文档关键词进行摘要和关键字提取 经过部分优化,对
  3. 所属分类:Java

    • 发布日期:2014-11-29
    • 文件大小:25kb
    • 提供者:lixufeng1992
  1. 英语小词典(数据结构课设 C++)

  2. 这是一个包含六级词库的英语小词典,适用于数据结构课设和C++课设,里面使用了折半查找,kmp匹配,队列,栈等一些算法和数据结构,使用Qt5.8开发,带有界面,里面的注释详细,代码规范,喜欢的朋友捧一下场吧
  3. 所属分类:QT

  1. 英语词典(数据结构课设)

  2. 这是一个包含六级词库的英语小词典,适用于数据结构课设和C++课设,里面使用了折半查找,kmp匹配,队列,栈等一些算法和数据结构,使用Qt5.8开发,带有界面,里面的注释详细,代码规范,喜欢的朋友就下载一下吧
  3. 所属分类:QT

  1. 使用结构语法,术语扩展和提炼的提取摘要

  2. 本文研究了开发的程序,并报告了进行的实验,以研究使用WordNet [1]和本地词库[2]来应用文本句子和术语扩展的组合结构属性在选择最合适的提取性文本摘要中的效用用于特定文档。 标记句子并对其进行归一化,然后使用最长公共子序列(LCS)算法[3] [4]选择最相似的句子子集。 计算的相似度基于组成文档的句子对的LCS。 计算归一化分数并将其用于对句子进行排名。 然后将选定的最相似句子的顶部子集标记化,以生成一组重要的关键字或术语。 使用1)WorldNet将产生的术语进一步扩展为两个子集。 2
  3. 所属分类:其它

    • 发布日期:2020-06-03
    • 文件大小:451kb
    • 提供者:weixin_38599231
  1. 中南民大数据结构课设-词典排序.zip

  2. 1、题目描述 已知某词典包含很多个单词(单词列表见附件),试设计字符串存储结构读入并存储这些单词,然后使用两种不同的排序算法对其按字典序排序。 2、功能要求及说明 (1)附件中单词需要将前缀的序号去掉,请自行处理。 (2)自行设计存储结构存储所有单词。 对字符串的比较,移动操作不能使用C语言提供的串操作,自己实现相应算法。
  3. 所属分类:C

    • 发布日期:2020-06-17
    • 文件大小:2mb
    • 提供者:qq_41365496
  1. 基于多特征融合的中文比较句识别算法

  2. 观点承载着文本的重要信息,而比较句是观点评论中一种常见的句式现象。针对中文比较句识别问题,该文提出了一种基于规则与统计相结合的方法并进行实验。该方法先对语料及其分词结果进行规范化处理,再通过基于比较特征词词典与句法结构模板、依存关系相结合的方法进行泛提取。然后设计一种CSR规则提取算法,并利用CRF挖掘实体对象信息及语义角色信息。最后利用SVM分类器,选取不同特征维数,找到使性能达到最优的特征形式完成精提取。
  3. 所属分类:其它

    • 发布日期:2021-03-17
    • 文件大小:319kb
    • 提供者:weixin_38526421
  1. 体积学习层析成像重建与词典学习

  2. 尽管X射线锥形束CT(CBCT)Swift发展,但是图像噪声仍然是低剂量CBCT的主要问题。 在小剂量CT重建的情况下,采用2D字典学习(DL)的迭代重建算法已针对精细结构进行了验证,并抑制了噪声。 但是,缺少用于体积CBCT的增强版本。 此外,已经认识到,稀疏促进正则器的表示效率对于图像处理任务的成功至关重要。 在这项工作中,将基于3D词典的稀疏约束合并到统计迭代重建中,从而定义3D-DL重建框架。 从统计的角度来看,分析与2D / 3D词典关联的表示系数的分布,以比较它们在表示体积图像中的效
  3. 所属分类:其它

  1. AhoCorasickDoubleArrayTrie:基于Double Array Trie的Aho Corasick算法的极快实现-源码

  2. AhoCorasickDoubleArrayTrie 基于Double Array Trie结构的Aho Corasick算法的极快实现。 它的速度是幼稚实现的5到9倍,也许是迄今为止最快的实现;-) 介绍 您可能听说过Aho-Corasick算法可以快速解析带有巨大词典的文本,例如: 在文本中寻找某些单词以链接或强调它们 向纯文本添加语义 检查字典以查看是否存在语法错误 但是大多数实现使用TreeMap存储goto结构,这花费O(lg(t))时间, t是单词的公共前缀中最大的数量。 最终复
  3. 所属分类:其它

  1. 使用内核进行人脸识别的类特定判别词典学习

  2. 在过去的几年中,目视识别的基于稀疏表示的分类(SRC)表现令人印象深刻。 然而,由于每个类别中的训练样本对相应类别中的字典做出同等贡献,因此SRC技术可能会导致较高的残留误差和较差的性能。 这激发了班级专用词典学习算法的出现。 在本文中,我们提出了一种新颖的方法-在重现内核希尔伯特空间(KCSDL-LDA)中结合线性判别分析约束的类特定词典学习,该方法在多个方面对传统的类特定词典学习(CSDL)算法进行了修改和扩展。 首先,我们提出了一种新颖的特定于类的字典学习方案,该方案在生成该类中的字典时会
  3. 所属分类:其它

    • 发布日期:2021-03-29
    • 文件大小:221kb
    • 提供者:weixin_38627603
« 12 3 »