您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 编写简单的中文分词程序

  2. 编写简单的中文分词程序.rar
  3. 所属分类:C#

    • 发布日期:2008-02-26
    • 文件大小:282kb
    • 提供者:fishpl
  1. 基于正向最大匹配和朴素贝叶斯算法的文本分类源码

  2. 包含朴素贝叶斯算法的简单实现 还有所需要的jar包:je-analysis-1.5.3.jar、lucene-core-2.3.2.jar 第二个jar包还可以查看到源码
  3. 所属分类:其它

    • 发布日期:2010-11-11
    • 文件大小:1mb
    • 提供者:CrazyHorse_
  1. Delphi实现的简单中文分词

  2. 简单中文分词,采用基于词库的正向最大频率匹配算法,效果还过得去,但速度太慢,有待改进。
  3. 所属分类:其它

    • 发布日期:2006-02-23
    • 文件大小:223kb
    • 提供者:chenxh
  1. chinesetokenize中文分词

  2. 1. 识别率达到85%以上。虽然和专业分词系统相比有一定的差距,但对于中型搜索引擎分词需求而言足够了。2. 对于前后歧义有较好的识别效果。如,成都市场报刊 -- 成都 / 市场 / 报刊中国和服装饰公司 -- 中国 / 和服 / 装饰 / 公司我的MSN是eunge.liu@gmail.com,有事找我 -- 我 / 的 / MSN / 是 / eunge.liu@gmail.com / 有事 / 找 / 我3. 标点符号自动过滤,包括ASCII和Unicode标点。4. 自定义噪音词(不知道
  3. 所属分类:其它

    • 发布日期:2008-05-23
    • 文件大小:1013kb
    • 提供者:wuqueyouhen
  1. C# 盘古分词

  2. 1、 修改字典格式,提高字典加载速度 2、 增加对英文专业名词的支持 如C++,C#等只要加入字典就可以被分出来 3、 增加词频判断功能,在无法取舍时根据词频取舍 4、 增加优先优先词频选项,通过这个选项动态决定分词粒度 需打开 FreqFirst 5、 增加中文人名前后缀统计和根据该统计定位人名的功能 6、 增加中文人名和未登录词出现频率统计功能 7、 增加自动更新字典功能,对超过阈值的人名和未登录词自动插入字典 需打开 AutoInsertUnknownWords 开关 并设置 Unkno
  3. 所属分类:C#

    • 发布日期:2011-10-28
    • 文件大小:3mb
    • 提供者:jaymezhang
  1. 无限智能建站的MAIYIGO全自动SEO整站源码

  2. MAIYIGO(无限智能建站)的全自动SEO站 此程序操作非常智能,只需后台设置几个最热门的关键词,每天采集的文章数量,再也无需人员管理, 一个域名建立一个站,100个域名建立一百个站, 百度谷歌收录都几千,PR从1升到2,访问量倍增, 达到500IP/天,假如开20个站,价值就更大了, ·智能全自动建站系统:你要做的仅仅是设置几个关键词 ·全自动更新:MAIYIGO自动寻找信息,随时自动更新 ·在线的WEB系统:无须安装软件,买个空间就能用 ·非作弊:我们不要关键词堆砌,不要作弊,我们是正规
  3. 所属分类:PHP

    • 发布日期:2012-04-02
    • 文件大小:2mb
    • 提供者:zhangzejin3883
  1. 分词组件V2.3.1源码

  2. 分词组件V2.3.1源码 程序介绍: 盘古分词是一个中英文分词组件。作者eaglet 曾经开发过KTDictSeg 中文分词组件,拥有大量用户来自51ASPX。 作者基于之前分词组件的开发经验,结合最新的开发技术重新编写了盘古分词组件。 中文分词功能 中文未登录词识别 盘古分词可以对一些不在字典中的未登录词自动识别 词频优先 盘古分词可以根据词频来解决分词的歧义问题 多元分词 盘古分词提供多重输出解决分词粒度和分词精度权衡的问题 中文人名识别 输入: “张三说的确实在理” 分词结果:张三/说/
  3. 所属分类:C#

    • 发布日期:2012-05-23
    • 文件大小:6mb
    • 提供者:ss_geng
  1. .Net中搜索引擎实例源码20120221

  2. .Net中搜索引擎实例源码 源码描述: 源码展示了在.net网站中使用搜索引擎的简单学习实例 可以搜索展示全部信息,即根据关键词分词搜索相关信息 欢迎感兴趣的用户下载研究
  3. 所属分类:Web开发

    • 发布日期:2013-04-28
    • 文件大小:920kb
    • 提供者:ss_geng
  1. .Net中搜索引擎实例源码20130609

  2. .Net中搜索引擎实例源码 源码描述: 源码展示了在.net网站中使用搜索引擎的简单学习实例 可以搜索展示全部信息,即根据关键词分词搜索相关信息 欢迎感兴趣的用户下载研究
  3. 所属分类:Web开发

    • 发布日期:2013-06-18
    • 文件大小:920kb
    • 提供者:ss_geng
  1. 分词简单源码

  2. 分词简单源码,包含词库文件。
  3. 所属分类:C#

    • 发布日期:2014-09-15
    • 文件大小:357kb
    • 提供者:y905286560
  1. ansj源码下载

  2. 文本分析源码 中文分词(Chinese Word Segmentation) 指的是将一个汉字序列切分成一个一个单独的词。分词就是将连续的字序列按照一定的规范重新组合成词序列的过程。我们知道,在英文的行文中,单词之间是以空格作为自然分界符的,而中文只是字、句和段能通过明显的分界符来简单划界,唯独词没有一个形式上的分界符,虽然英文也同样存在短语的划分问题,不过在词这一层上,中文比之英文要复杂的多、困难的多。
  3. 所属分类:搜索引擎

    • 发布日期:2017-09-08
    • 文件大小:24mb
    • 提供者:z360901061100
  1. lucene中文分词、同义词制作源码

  2. lucene分词器demo,有lucene自带的分词器及其使用方法,也有mmseg分词及其使用、同义词的简单实现;
  3. 所属分类:Java

    • 发布日期:2018-02-14
    • 文件大小:2mb
    • 提供者:qq_33999844
  1. LwIP协议栈源码详解

  2. LwIP协议栈源码详解, lwip协议栈的详细说明文档 ,写的非常不错目录 栘植综述 2动态内存管理 3数据包pbut--9 4pbuf释放-- 5网终接口结构- --------16 6以太网数据接收 20 7ARP表---- 8ARP表查询--- ---26 9ARP层流程-- 10IP层输入 ---3 11IP分片重装1-- -34 12IP分片重装2 37 13ICMP处理---- 14TCP建立与断廾-- --43 15TCP状态转换 46 16TCP控制块 49 17TCP建立流程
  3. 所属分类:其它

    • 发布日期:2019-10-31
    • 文件大小:1mb
    • 提供者:liutee
  1. PHP中文分词的简单实现代码分享

  2. 当然, 本文不是要对中文搜索引擎做研究, 而是分享如果用 PHP 做一个站内搜索引擎。 本文是这个系统中的一篇。 我使用的分词工具是中科院计算所的开源版本的 ICTCLAS。 另外还有开源的 Bamboo, 我随后也会对该工具进行调研。 从 ICTCLAS 出发是个不错的选择, 因为其算法传播比较广泛, 有公开的学术文档, 并且编译简单, 库依赖少。 但目前只提供了 C/C++, Java 和 C# 版本的代码, 并没有 PHP 版本的代码。 怎么办呢? 也许可以学习它的 C/C++ 源码和学术
  3. 所属分类:其它

    • 发布日期:2020-12-18
    • 文件大小:53kb
    • 提供者:weixin_38550334
  1. Ksearch:thinkphp分词全文检索全文搜素,利用PullWord分词接口。-源码

  2. 搜索 thinkphp分词全文检索全文搜素,利用PullWord分词接口。对齐TNTSearch数据库思路。精确匹配结果。 简单调用建议分页查询,每篇长文章,几千句话不是闹着玩的。 安装htmlpurifier $作曲家需要ezyang / htmlpurifier <?php namespace app\search\controller; use think\Controller; use think\Request; use think\Db; use Ksearch\Ksea
  3. 所属分类:其它

  1. npartword:golang分布式中文分词系统-源码

  2. npw介绍 npw:npartword,golang实现中文分词系统,主体分词逻辑有两个部分。 1.初步树查找字典,通过disctance或mmseg算法过滤分词 2.维特比算法解隐马尔可夫模型,对词进行隐状态标注分词 3.加入情感词典,文本情感分类算法,对文本进行情感评分,如积极,消极,否定等,一般分值越来越文本的积极性发生 分词服务系统的实现,通过nmid的worker方式实现。 1.分词系统服务端,需要实现nmid的工人,服务的实现十分简单,无需考虑通信问题,这些nmid解决。 2.
  3. 所属分类:其它

  1. ask-answer-system:简单的问答系统实现,利用TF-IDF,词向量,倒排表等方法-源码

  2. 问-答系统 简单的问答系统实现,利用TF-IDF,词向量,倒排表等方法 数据集 综合类中文词库.xlsx:包含了中文词,当做字典来用(用作PART1) dev-v2.0.json:这个数据包含了问题和答案的对,但是以JSON格式存在,需要编写parser来提取出里面的问题和答案。 手套。6B:这个文件需要从网上下载,下载地址为: ://nlp.stanford.edu/projects/glove/,请使用d = 100的单词向量(用于PART3) 环境: Python 3(必须要使用P
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:18mb
    • 提供者:weixin_42134094
  1. Criminal-Intelligence-QA-System:Canghong Jin 18-19 1的一个高级Java最终项目的演示-源码

  2. 提示:您可以在问题上提问。 在测试自然语言查询 刑事情报问答系统 Neo4j用于存储。 Flask,用于显示子图的cytoscape.js。 Pytorch Stacked BiLSTM模型每个都有一层用于查询分类和分析。 作者:陈达,张卓(Drogo Zhang)。 分词方法 词嵌入链接 模型训练 服务器设定 展示: 基本问题|| 简单搜索 进阶问题 参考
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:17mb
    • 提供者:weixin_42123296
  1. pinyin-plus:简繁体汉字转拼音的项目,解决多音字的问题。ElasticSearch,solr的拼音分词工具-源码

  2. 拼音加 汉字转拼音的库,有如下特点 拼音数据基于 , 开放词库 基于拼音词库的数据初始化分词引擎进行分词,正确度高,解决多音字的问题 支持繁体字 支持自定义词库,词库格式同cc-cedict字典格式 api简单,分为普通模式,索引模式 使用场景 汉字转拼音,常用于索引引擎场景创建拼音的索引,这个场景的问题一般由两种实现路径,一种是直接使用带拼音的分词插件,会自动帮你创建出拼音的索引,还有一种就是自己将汉字转换为拼音字符串,采用间隔分隔分词来达到自定义化索引的目的。恰恰是实现路径,都离不开分词和拼
  3. 所属分类:其它

  1. lac:百度NLP:分词,词性标注,命名实体识别,词首-源码

  2. 工具介绍 LAC全称中文的词法分析,是百度自然语言处理部研发的一种联合的词法分析工具,实现中文分词,词性标注,专名识别等功能。该工具具有以下特点和优势: 效果好:通过深度学习模型联合学习分词,词性标注,专名识别任务,单词索引,整体效果F1值超过0.91,词性标注F1值超过0.94,专名识别F1值超过0.85,效果领先。 效率高:精简模型参数,结合Paddle预测库的性能优化,CPU单线程性能达800QPS,效率领先。 可定制:实现简单可控的干预机制,精确匹配用户字典对模型进行干预。 调用便捷:支
  3. 所属分类:其它

« 12 3 4 5 »