您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. csw5.0中文分词组件

  2. 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自动摘要、自动分类及信息加工处理等各个领域。 二、本组件特点: 1.适应性强 本组全部件采用
  3. 所属分类:C#

    • 发布日期:2009-09-01
    • 文件大小:3mb
    • 提供者:madl_lxj_163
  1. sql2005全文检索.doc

  2. SQL Server 2005全文检索技术在网站上的应用实录 http://tech.ddvip.com 2008年01月21日 社区交流 Excel服务器-用Excel做管理系统 关键字: DataGuard checkpoint 动态查询 synonyms 卸载SQL 2005 SQL Server群集 内容摘要:本文提供了网站如何设计和实现基于SQL Server 2005的全文检索实例,希望能对正在使用SQL Server 2005构建网站搜索的同仁有所裨益。 一、前言 “人类失去搜索
  3. 所属分类:其它

    • 发布日期:2009-09-09
    • 文件大小:506kb
    • 提供者:a522920779a
  1. ACWPS(爱博汉语分词系统)分词组件 asp分词组件

  2. 爱博汉语分词系统Web服务器支持标准的HTTP协议,可以跨平台调用,支持分布式运算; 爱博汉语分词系统COM组件提供COM和DLL接口(Windows环境) 以及共享库.so(Linux)形式,可支持所有支持COM接口调用的编程语言及脚本语言。 如:PHP、JSP、ASP、ASP.net、C/C++ 、VC6.0 、VC.net、BC、C#、VB6.0 、VB.net、Delphi、Java等。 爱博汉语分词系统支持自定义词语的功能,用户可根据自己需要定义添加汉语词组。 可根据需要自行定义影响
  3. 所属分类:C#

    • 发布日期:2010-02-28
    • 文件大小:2mb
    • 提供者:selectersky
  1. LJParser文本搜索与挖掘开发平台

  2. 一、简介 LJParser文本搜索与挖掘开发平台包括:全文精准搜索,新词发现,汉语分词标注,词语统计与术语翻译,自动聚类与热点发现,分类过滤,自动摘要,关键词提取,文档去重,正文提取等十余项功能。针对互联网内容处理的需要,融合了自然语言理解、网络搜索和文本挖掘的技术,提供了用于技术二次开发的基础工具集。开发平台由多个中间件组成,各个中间件API可以无缝地融合到客户的各类复杂应用系统之中,可兼容Windows,Linux, Android,Maemo5, FreeBSD等不同操作系统平台,可以供
  3. 所属分类:Web开发

    • 发布日期:2010-05-11
    • 文件大小:17mb
    • 提供者:lingjoin
  1. 1_路径规划_地址编码_公交换乘_本地搜索_热点地图

  2. SSE4J(Spatial Search Engine for Java)是针对地理信息数据源构建的垂直搜索引擎应用接口,是基于Lucene+JTS Topology Suite开源库设计的框架。 规划的SSE4J包含: 1)SSE4J应用开发包 2)SSE4J Webservice应用接口 3)SSE4J工具集 规划的SSE4J包含的功能: 1) POI搜索(名称、地址、类型等关键字搜索;周边搜索) 2)道路搜索、区域搜索 3)地址匹配、反地址匹配、道路匹配 4)深度信息关联(网页关联) 5
  3. 所属分类:Java

    • 发布日期:2011-04-09
    • 文件大小:14mb
    • 提供者:charmdx
  1. 2_路径规划_地址编码_公交换乘_本地搜索_热点地图

  2. SSE4J(Spatial Search Engine for Java)是针对地理信息数据源构建的垂直搜索引擎应用接口,是基于Lucene+JTS Topology Suite开源库设计的框架。 规划的SSE4J包含: 1)SSE4J应用开发包 2)SSE4J Webservice应用接口 3)SSE4J工具集 规划的SSE4J包含的功能: 1) POI搜索(名称、地址、类型等关键字搜索;周边搜索) 2)道路搜索、区域搜索 3)地址匹配、反地址匹配、道路匹配 4)深度信息关联(网页关联) 5
  3. 所属分类:Java

    • 发布日期:2011-04-09
    • 文件大小:14mb
    • 提供者:charmdx
  1. 3_路径规划_地址编码_公交换乘_本地搜索_热点地图

  2. SSE4J(Spatial Search Engine for Java)是针对地理信息数据源构建的垂直搜索引擎应用接口,是基于Lucene+JTS Topology Suite开源库设计的框架。 规划的SSE4J包含: 1)SSE4J应用开发包 2)SSE4J Webservice应用接口 3)SSE4J工具集 规划的SSE4J包含的功能: 1) POI搜索(名称、地址、类型等关键字搜索;周边搜索) 2)道路搜索、区域搜索 3)地址匹配、反地址匹配、道路匹配 4)深度信息关联(网页关联) 5
  3. 所属分类:Java

    • 发布日期:2011-04-09
    • 文件大小:11mb
    • 提供者:charmdx
  1. chinesetokenize中文分词

  2. 1. 识别率达到85%以上。虽然和专业分词系统相比有一定的差距,但对于中型搜索引擎分词需求而言足够了。2. 对于前后歧义有较好的识别效果。如,成都市场报刊 -- 成都 / 市场 / 报刊中国和服装饰公司 -- 中国 / 和服 / 装饰 / 公司我的MSN是eunge.liu@gmail.com,有事找我 -- 我 / 的 / MSN / 是 / eunge.liu@gmail.com / 有事 / 找 / 我3. 标点符号自动过滤,包括ASCII和Unicode标点。4. 自定义噪音词(不知道
  3. 所属分类:其它

    • 发布日期:2008-05-23
    • 文件大小:1013kb
    • 提供者:wuqueyouhen
  1. KTDictSeg V1.3 版本

  2. KTDictSeg 是一个开源的C#.net编写的,分词准确率大于90%,分词速度非常快,支持人名识别,词性标注,词频判断,未登录词识别,字典管理,Lucene.net接口。http://www.cnblogs.com/eaglet/archive/2008/05/29/1209646.html
  3. 所属分类:C#

    • 发布日期:2008-07-01
    • 文件大小:3mb
    • 提供者:eaglet
  1. pscws23-20081221.tar.bz2【中文分词】

  2. php中文分词 ===== PSCWS23 - 说明文档 ===== $Id: readme.txt,v 1.3 2008/12/21 04:37:59 hightman Exp $ [ 关于 PSCWS23 ] PSCWS23 是由 hightman 于 2006 年开发的纯 PHP 代码实现的简易中文分词系统第二和第三版的简称。 PSCWS 是英文 PHP Simple Chinese Words Segmentation 的头字母缩写,它是 SCWS 项目的前身。 现 SCWS 已作为
  3. 所属分类:PHP

    • 发布日期:2013-09-08
    • 文件大小:2mb
    • 提供者:yao__shun__yu
  1. 文本挖掘tmSVM开源项目包含Python和Java两种版本带参考文档

  2. 文本挖掘tmSVM开源项目集成libSVM和liblinear包含Python和Java两种版本带PDF源码参考文档 简介 文本挖掘无论在学术界还是在工业界都有很广泛的应用场景。而文本分类是文本挖掘中一个非常重要的手段与技术。现有的分类技术都已经非常成熟,SVM、KNN、Decision Tree、AN、NB在不同的应用中都展示出较好的效果,前人也在将这些分类算法应用于文本分类中做出许多出色的工作。但在实际的商业应用中,仍然有很多问题没有很好的解决,比如文本分类中的高维性和稀疏性、类别的不平衡
  3. 所属分类:Python

    • 发布日期:2014-02-23
    • 文件大小:3mb
    • 提供者:vcfriend
  1. scws23-php

  2. ===== PSCWS23 - 说明文档 ===== $Id: readme.txt,v 1.3 2008/12/21 04:37:59 hightman Exp $ [ 关于 PSCWS23 ] PSCWS23 是由 hightman 于 2006 年开发的纯 PHP 代码实现的简易中文分词系统第二和第三版的简称。 PSCWS 是英文 PHP Simple Chinese Words Segmentation 的头字母缩写,它是 SCWS 项目的前身。 现 SCWS 已作为 FTPHP 项目
  3. 所属分类:PHP

    • 发布日期:2015-03-24
    • 文件大小:3mb
    • 提供者:u014581691
  1. pathon中文分词接口

  2. 1、下载 https://github.com/haobibo/ICTCLAS_Python_Warpper ,直接解压到任意位置即可,无需安装。 2、修改nlpir.py代码 这里之所以要修改代码,是为了让其能够更好地Python3环境下运行。实际上,nlpir.py文件中,作者已经明确说明了针对Python3需要修改的代码。主要包括以下几点: 1、选择库文件
  3. 所属分类:Python

    • 发布日期:2015-05-12
    • 文件大小:44mb
    • 提供者:baidu_27631325
  1. java+mysql实现的代码分享网(所有源码已开源,效果可看网址:www.admintwo.com)

  2. 为了巩固知识,做的一个网站。基于struts2+spring+springjdbc开发的代码分享网,所有源码已开源。 网站功能介绍: 1、邮件注册(采用阿里云企业邮箱),为了让大家体验一下邮箱注册功能。我已经在分享的源码中,为大家配置好了测试账户,大家可以在自己电脑上进行测试。 2、md5加密,注册用户,所有密码会以密文保存在数据库,可以保证安全。 3、代码分享功能(核心功能),该功能的主要特色是集成了优秀的文本编辑器,支持插入代码、插入链接、插入表情、插入图片、支持在线预览。同时也实现了文件
  3. 所属分类:Java

    • 发布日期:2017-05-31
    • 文件大小:22mb
    • 提供者:wisomboy
  1. firtex-1.0.3_RC_src(Windows版本源代码)

  2. 开放式架构: 采用标准C++实现,支持Windows,Unix-like 操作系统; 实验和工程的通用平台,不仅是一个检索系统,同时也是一个全文索引和检索框架 多个组件基于插件设计,不仅可以采用C/C++对系统进行扩展,也可以通过内置的跨平台COM库设计COM组件来扩展系统 。 功能: 支持增量索引,差量索引,多字段索引,提供了3种前向索引方式; 支持纯文本,HTML,PDF等文件格式; 提供快速中文分词; 从底层到高层,提供了多种索引访问接口,灵活自由地使用索引文件; 提供丰富的检索语法,支
  3. 所属分类:C++

    • 发布日期:2008-12-21
    • 文件大小:8mb
    • 提供者:ydd1991
  1. 海量分词研究版java接口

  2. 海量分词研究版java接口 有研究或探讨的请加群:37424970 或联系本人MSN或邮箱:zhuseahui@yahoo.com.cn
  3. 所属分类:Java

    • 发布日期:2009-02-07
    • 文件大小:5mb
    • 提供者:zhuseahui
  1. 海量分词组件Com组件ForVB_php

  2. 海量分词组件研究版的Com组件,可以通过COM调用海量分词组件的几个主要的接口。因为没写技术文档,最好用Visual Studio 2005这类工具,可以自动补全。
  3. 所属分类:VB

    • 发布日期:2009-04-11
    • 文件大小:56kb
    • 提供者:hzj219
  1. 中文分词学习版

  2. 此为学习版,请勿用于商业用途或扩散。 以下描述转至互联网。 ============== 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自
  3. 所属分类:机器学习

  1. Go-ai.baidiu.com接口的golang调用sdk

  2. ai.baidiu.com 里的语音识别,语音合成,中文分词, 中文词向量表示, 短文本相似度, 中文DNN语言模型, 评论观点抽取, 词性标注, 人脸识别, 人脸N:N比对, 身份证识别, *识别, 图片查找, 等接口的golang调用sdk
  3. 所属分类:其它

    • 发布日期:2019-08-14
    • 文件大小:12kb
    • 提供者:weixin_39840387
  1. 爬取一定时间内的前程无忧岗位数据(例如青岛所有岗位的url为:https://jobs.51job.com/qingdao-snq/)

  2. 三、 项目思路 1. 爬取一定时间内的(如最近1个月的)前程无忧岗位数据(例如青岛所有岗位的url为:https://jobs.51job.com/qingdao-snq/),部分数据可以直接在搜索结果中获取,部分数据需要进入到岗位页面中获取。 2. 将爬取的数据保存为本地文本文件(若学生掌握数据库相关知识则可以保存在数据库中)。 3. 基于爬取的数据可以形成多种数据分析结果,例如:行业薪资、地区薪资、地区与行业分布关系、行业学历需求情况等。 4. “职位信息”字段可使用jieba分词库进行分
  3. 所属分类:机器学习

« 12 »