您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. HLSSplit.RAR

  2. 这个是海量智能分词研究版,里面自带语料库,实例,说明文档。分词,统计都做的很好,不过是封装成了dll和lib,不能看到核心的源代码,但是在此基础上做应用还是很好的。 原来那个压缩包不知道怎么损坏了,重新上传一个
  3. 所属分类:C++

    • 发布日期:2009-05-11
    • 文件大小:7mb
    • 提供者:mxw5495
  1. 不错的西班牙分词 C++语言

  2. 不错的西班牙分词 C++语言.字符串算法库提供的分词手法要少一些,如果要更多的功能的话我们还是需要自己DIY一个Finder的。自己DIY一个Finder并不复杂
  3. 所属分类:其它

    • 发布日期:2011-08-01
    • 文件大小:1mb
    • 提供者:suc88jp
  1. python写的基于感知机的中文分词系统

  2. 基于字的用感知机实现的中文分词系统。完全训练后对微软的测试集精度可以达到96%多。我上传的版本是完整的代码(训练和分词),大家自己用附带的微软训练数据训练就可以了,只有一个文件。 代码总的来说写的还是很清楚的,方便自己也方便别人阅读。欢迎大家共讨论,xiatian@ict.ac.cn。
  3. 所属分类:Python

    • 发布日期:2008-05-26
    • 文件大小:4mb
    • 提供者:SummerRain2008
  1. 中文 分词 搜狗 词库

  2. 搜狗的词库,虽然时间老,但是还是不错的,分词开发可以参考一下
  3. 所属分类:其它

    • 发布日期:2012-04-12
    • 文件大小:1mb
    • 提供者:outiantaxi
  1. 中文分词原代码(C++版)

  2. 一个基于又又C++的中文分词原代码,写得比较复杂,里面一些注释,不过比较少,总的看还是比较简单的,可以供需要的人参考一下!(注:版权归原作者所有)
  3. 所属分类:C++

    • 发布日期:2008-09-07
    • 文件大小:90kb
    • 提供者:Eric_2009
  1. 中文分词服务器3.3

  2. 软件名称:百万商业圈简易中文分词服务器 作者:百万商业圈 版本:3.2(目前最新单线程服务器版,支持并发) 具体使用时可将 bwsyq.com.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:bwsyq fenci service and serve 0.1 (百万商业圈中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时
  3. 所属分类:其它

    • 发布日期:2013-09-02
    • 文件大小:6mb
    • 提供者:yefengying
  1. 基于中文的Shuzhen分词器1.1.4提供下载

  2. 此版本改进为:分词时采用了完全匹配方式(自命名的),也即将符合字典条目的词全部切分出来,在基于字典的分词中达到了“分无可分”的程度;分词时完全按照标准分词来进行,这样保证了在和一些高亮显示组件如highlighter一起使用时,能准确无误的将命中进行高亮显示,避免了Google高亮显示的 Bug;配置文件的存放支持相对路径,这样更灵活,更方便应用在一些虚拟机上;字典条目支持导入到内存中,也就是在原有JDBM字典系统的基础上增加内存字典系统,且能方便自定义导入多少条目到内存中,能自定义使用内存还
  3. 所属分类:专业指导

    • 发布日期:2008-10-22
    • 文件大小:814kb
    • 提供者:yuanjian0211
  1. 结巴分词Python代码

  2. 结巴分词,很不错的分词工具,python写的,亲身试用,不管英文还是中文分得很准!
  3. 所属分类:Python

    • 发布日期:2014-08-26
    • 文件大小:6mb
    • 提供者:csdn20140826
  1. THINKPHP 中文分词处理类

  2. 将军今天继续分享一款中文分词类库,无需其他扩展组件支持,这个类库基本能满足日常的分词,当然更精准的分词那你还是老老实实去研究分词算法和相关扩展吧。这个类库最重要一点,就是支持中文分词。 废话不多说,来说说如何使用。 首先下载类库压缩包,解压缩。里面只有两个文件,一个是dict.csv,即分词字典。一个是SplitWord.class.php,这个是分词的类库文件。将两个文件同时复制到核心扩展ORG目录或者项目的ORG目录.确保两个文件在同一目录下。 第二步,在action里编写代码如下: 1.
  3. 所属分类:PHP

    • 发布日期:2015-03-26
    • 文件大小:8mb
    • 提供者:junlexian
  1. solr mmseg4j 中文分词器

  2. mmseg4j-solr-2.3.0.jar 支持 solr5.x 版本以上 分词器本身并未做升级还是mmseg4j-core-1.10.0 和 mmseg4j-analysis-1.9.1.jar为了方便也一并上传
  3. 所属分类:Java

    • 发布日期:2015-11-24
    • 文件大小:702kb
    • 提供者:leiyu231
  1. 中文分词入门与字标注法

  2. 作为中文信息处理的“桥头堡”,中文分词在国内的关注度似乎远远超过了自然语言处理的其他研究领域。在中文分词中,资源的重要性又不言而喻,最大匹配法等需要一个好的词表,而基于字标注的中文分词方法又需要人工加工好的分词语料库。所以想研究中文分词,第一步需要解决的就是资源问题,这里曾经介绍过“LDC上免费的中文信息处理资源”,其中包括一个有频率统计的词表,共计44405条,就可以作为一个不错的中文分词词表使用。而一个好的人工分词语料库,需要很大的人力物力投入,所以无论研究还是商用往往需要一定的费用购买,
  3. 所属分类:深度学习

    • 发布日期:2017-12-14
    • 文件大小:246kb
    • 提供者:u011563494
  1. CSharp分词 还是分词 搜索引擎

  2. CSharp分词 还是分词 搜索引擎 分词 搜索引擎。 我刚下的。
  3. 所属分类:Java

    • 发布日期:2008-12-18
    • 文件大小:13mb
    • 提供者:bingxueyixi
  1. 藏拙简易中文分词服务器源代码及词库

  2. 软件名称:藏拙简易中文分词服务器 作者:藏拙 具体使用时可将 cangzhuo.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:cangzhuo fenci service and serve 0.1 (藏拙中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时又还是一个Scoket server 通信端口是 888. 分词
  3. 所属分类:Web开发

    • 发布日期:2009-02-18
    • 文件大小:1mb
    • 提供者:u012960424
  1. 中文分词服务器源代码及词库

  2. 软件名称:藏拙简易中文分词服务器 作者:藏拙 具体使用时可将 cangzhuo.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:cangzhuo fenci service and serve 0.1 (藏拙中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时又还是一个Scoket server 通信端口是 888. 分词
  3. 所属分类:Web开发

    • 发布日期:2009-02-18
    • 文件大小:1mb
    • 提供者:xuying198702
  1. 中文分词服务器源代码及词库

  2. 软件名称:藏拙简易中文分词服务器 作者:藏拙 具体使用时可将 cangzhuo.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:cangzhuo fenci service and serve 0.1 (藏拙中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时又还是一个Scoket server 通信端口是 888. 分词
  3. 所属分类:Web开发

    • 发布日期:2009-02-18
    • 文件大小:1mb
    • 提供者:mysqlyao
  1. solr IK分词_sougou.dic

  2. 在solr使用 IKAnalyzer 分词时,自带的字典比较熟,不适合精确拆分。可以使用sougou分词,还是比较好用的。
  3. 所属分类:互联网

  1. spring boot + es结合Jest实现全站搜索,分页,分词搜索,高亮,功能很全,博文里面有详细的介绍.zip

  2. Spring Boot结合Jest实现对ElasticSearch的全文检索,分词检索,分页,高亮关键词,多字段检索 PageController中的搜索方法里面是全套的,分词,分页,高亮等都包含,数据格式个es-head中创建索引的索引在压缩包里面都有 还是不懂的可以看我的博文里面有详细的介绍
  3. 所属分类:Java

    • 发布日期:2020-01-10
    • 文件大小:257kb
    • 提供者:lpd_lt
  1. Python3爬虫中关于中文分词的详解

  2. 原理 中文分词,即 Chinese Word Segmentation,即将一个汉字序列进行切分,得到一个个单独的词。表面上看,分词其实就是那么回事,但分词效果好不好对信息检索、实验结果还是有很大影响的,同时分词的背后其实是涉及各种各样的算法的。 中文分词与英文分词有很大的不同,对英文而言,一个单词就是一个词,而汉语是以字为基本的书写单位,词语之间没有明显的区分标记,需要人为切分。根据其特点,可以把分词算法分为四大类: ·基于规则的分词方法 ·基于统计的分词方法 ·基于语义的分词方法 ·基于理解
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:139kb
    • 提供者:weixin_38638292
  1. Python中文分词实现方法(安装pymmseg)

  2. 本文实例讲述了Python中文分词实现方法。分享给大家供大家参考,具体如下: 在Python这pymmseg-cpp 还是十分方便的! 环境 ubuntu10.04 , python2.65 步骤: 1 下载mmseg-cpp的源代码 http://code.google.com/p/pymmseg-cpp/ 2 执行: tar -zxf pymmseg-cpp*.tar.gz //解压后得到pymmseg 目录 cd pymmseg\mmseg-cpp python build.py #
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:46kb
    • 提供者:weixin_38684743
  1. 第三章 3、1 文本预处理之分词(Word Segmentation)

  2. 一、大纲总览 1、tough资料:各类文本等的输入。 2、分词。好的分词算法很重要。 3、文本预处理。 4、标准化:单词的时态,单复数。都转换为最原始的。这时还是字符串。 5、特征提取:向量表示,thidf算法,w2w,seq2seq算法等等。 6、模型:向量有了,然后就是根据算法去匹配。 二、分词 可以直接用的分词工具。 1、分词算法之最大匹配 向前最大匹配、向后最大匹配、双向最大匹配(不讲) 向前最大匹配 1、首先输入一个句子,已知后建好的词典库,设置好窗口值(5) 2、窗口从第一个汉字
  3. 所属分类:其它

« 12 3 4 5 6 »