点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 地址分词
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
JE中文分词je-analysis-1.5.1.jar
1.5.1 —— 2006-01-22 修正细粒度分词错误的问题 1.5.0 —— 2007-01-18 全面支持Lucene 2.0 增强了词典维护的API 增加了商品编码的匹配 增加了Mail地址的匹配 实现了词尾消歧算法第二层的过滤 整理优化了词库 1.4.0 —— 2006-08-21 增加词典的动态扩展能力 1.3.3 —— 2006-07-23 修正无法多次增加词典的问题 1.3.2 —— 2006-07-03 修正细粒度分词错误的问题 1.3.1 —— 2006-0 6-23 修
所属分类:
其它
发布日期:2009-04-28
文件大小:871kb
提供者:
tiancen2001
IKAnalyzer 3.0 中文分词器
1.IKAnalyzer3.0介绍 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer 已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0 则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 1.2IKAnalyzer3.0特性 * 采用了特有的“正向迭代最细粒度切分
所属分类:
其它
发布日期:2009-07-21
文件大小:1mb
提供者:
linliangyi2006
基于分词的地址匹配技术(PDF清晰)
基于分词的地址匹配技术:根据调查显示,城市信息80%都与地理位置有关,而这些信息中大部分却没有空间坐标,自然无法整合,无法进行控件分析。为了快速的推进数字化城市的建设和发展,有必要找到一种快速,高效的方法,将大量的与地理位置相关的信息,进行坐标编码,以便于GIS系统分析,查询。本文提出了一种基于分词的地理匹配技术,他将大量的非空间信息高效的转化为空间信息,极大提高非空间信息数据的编码,录入效率。
所属分类:
专业指导
发布日期:2010-03-11
文件大小:1mb
提供者:
nextel
基于分词的地址匹配技术
本文提出了一种“基于分词的地址匹配技术”,它是通过构造一种分级地址库的方法, 并转换成地址分词库,采用基于地址词典的中文分词技术,实现地址匹配。采用这种方法, 易于维护修改地址库,并构建一个可自学习的地址库,不断丰富完善,提高匹配范围与匹配 精度。
所属分类:
专业指导
发布日期:2010-07-02
文件大小:1mb
提供者:
chensiyi1228
中文分词词库整理.rar
30万 中文分词词库,42537条伪原创词库,dict.txt,fingerDic.txt,httpcws_dict.txt,out.txt,百度分词词库.txt,词库地址.txt,词库下载地址.txt,四十万汉语大词库.txt,四十万可用搜狗txt词库.txt,搜狗词库方法.txt,五笔词库.TXT 解压密码为:www.5eyi.com 想省资源分可以到http://www.5eyi.com/download-sphinx-chinese-word-lexicon-collected/下载
所属分类:
其它
发布日期:2011-09-05
文件大小:6mb
提供者:
logken
中文 分词 词库 整理
30万 中文分词词库,42537条伪原创词库,dict.txt,fingerDic.txt,httpcws_dict.txt,out.txt,百度分词词库.txt,词库地址.txt,词库下载地址.txt,四十万汉语大词库.txt,四十万可用搜狗txt词库.txt,搜狗词库方法.txt,五笔词库.TXT 解压密码为:www.5eyi.com
所属分类:
其它
发布日期:2013-07-03
文件大小:6mb
提供者:
mwzit
中文分词系统附带四十多万中文词库
一套强大的分词系统并按照主语谓语动词等进行结构划分,并重写了数据结构个算法,并且进行了部分的人工优化内存中中文分词每秒钟大约100万字,并附带40多万中文词语库 在线测试地址: http://demo.ansj.org/index.jsp
所属分类:
Java
发布日期:2013-11-19
文件大小:7mb
提供者:
michaeltang123
Lucene中文分词组件 JE-Analysis 1.5.1
发布于:http://www.jesoft.cn/posts/list/5.page 1.5.1 —— 2006-01-22 修正细粒度分词错误的问题 1.5.0 —— 2007-01-18 全面支持Lucene 2.0 增强了词典维护的API 增加了商品编码的匹配 增加了Mail地址的匹配 实现了词尾消歧算法第二层的过滤 整理优化了词库 1.4.0 —— 2006-08-21 增加词典的动态扩展能力 1.3.3 —— 2006-07-23 修正无法多次增加词典的问题 1.3.2 —— 200
所属分类:
其它
发布日期:2007-01-22
文件大小:871kb
提供者:
diystar
c语言 编译原理 分词
c语言 编译原理 分词 定义Token表示右部的值。 检查语义错误: (标识符声明、定义和使用) 没有声明;重复声明;类型不相容 符号表 (标识符名,地址,类型) 过程:读入Token 遇到标识符声明时,检查是否已声明,是则报错,否则构造标识符的符号表; 遇到标识符定义和使用时,检查是否声明。 将变量的Token改为($id,entry)形式,entry表示标识符在符号表中的地址。
所属分类:
C
发布日期:2008-10-15
文件大小:1mb
提供者:
lhbshYU
28万词库,中文分词
多个词库的去重整理,28万超全词库,excel表整理完毕,留有词性分辨栏,可自行处理。 中文分词词库,42537条伪原创词库,dict.txt,fingerDic.txt,httpcws_dict.txt,out.txt,百度分词词库.txt,词库地址.txt,词库下载地址.txt,四十万汉语大词库.txt,四十万可用搜狗txt词库.txt,搜狗词库方法.txt,五笔词库.TXT
所属分类:
互联网
发布日期:2015-08-05
文件大小:3mb
提供者:
icycho
elasticsearch整合分词、创建索引、搜索例子
lasticsearch整合分词、创建索引、搜索例子,elasticsearch版本为1.0,索引数据从数据表中动态读取生成,有关键字高亮效果,查询分页 1 在dababase目录中导致相关的数据库文件,修改DBCOperation java文件数据库连接地址,修改elasticsearch.properties文件中相关链接 2 运行CreatIndexMysql文件,里面有main方法查询数据库生成相关的索引文件 3 部署工程在tomcat中访问即可看到效果,项目中有很多的工具类,比如类似
所属分类:
Java
发布日期:2015-10-23
文件大小:61mb
提供者:
j1582830
地址分词算法
地址分词算法,基于条件随机场.
所属分类:
C++
发布日期:2015-11-25
文件大小:213kb
提供者:
hk134579
ecshop分词模糊搜索
安装说明: 1. 复制search 目录到网站根目录,请不要修改此文件夹的名称 2. 初次安装, 访问: 域名/search/baseline.php 例如:你的域名是www.ahuoo.com, 那么请访问 www.ahuoo.com/search/baseline.php 3. 修改代码 1.先备份网站根目录的search.php,然后用插件里面的替换掉 2.在模版中找到商品搜索页中的商品名称显示语句,有些模版在library/search_goods_list.lbi文件中,如果没有se
所属分类:
PHP
发布日期:2015-12-02
文件大小:67kb
提供者:
hellogogo
Ecshop分词模糊搜索1.0
插件原理: Ecshop默认情况下搜索是根据数据库按搜索的字符串去匹配,不能自动根据需要去自动分词。 例如:你搜索“李宁安踏” 标题里面必须要有“李宁安踏”才能出来, 如果某个商品标题只有“李宁”是不会出来的,这样对于普通的用户是不友好的。 本插件提供的功能: 1.提供一种强大的分词搜索,用户可以不用空格某几个分词,随便打一个句子就可以搜索出对应的结果 2.可以自定义分词。 3.搜索结果自动按照相关度排序,相关度越相关,越排在最前面。 插件为试用版,如果正式使用可以联系作者购买,当前只索引了商
所属分类:
PHP
发布日期:2015-12-02
文件大小:67kb
提供者:
hellogogo
中文地址分词及匹配项目
处理中文地址的分词和匹配 采用混合分词算法进行中文地址分词 在中文地址分词基础上采用Double Levenshetin算法进行中文地址相似度进行地址匹配
所属分类:
Java
发布日期:2016-08-30
文件大小:18mb
提供者:
haiyang1226
常用中文分词器及地址链接
列举了当前常用的中文分词器及其地址链接,不用再进行网络查找,直接可以进行使用。
所属分类:
搜索引擎
发布日期:2017-10-18
文件大小:13kb
提供者:
ggf0101
基于分词的地址匹配技术
本文提出一种“基于分词的地址匹配技术”,它是通过构造一种分级地址库的方法,并转换成地址分词库,采用基于地址词典的中文分词技术,实现地址匹配。
所属分类:
专业指导
发布日期:2009-01-04
文件大小:1mb
提供者:
gaomzh
中文地址分词
处理中文地址的分词和匹配 采用混合分词算法进行中文地址分词 在中文地址分词基础上采用Double Levenshetin算法进行中文地址相似度进行地址匹配
所属分类:
深度学习
发布日期:2018-12-10
文件大小:20mb
提供者:
wangwei_5201314
中文地址分词及匹配
大数据处理中文地址的分词和匹配 采用混合分词算法进行中文地址分词 在中文地址分词基础上采用精确算法进行中文地址相似度进行地址匹配
所属分类:
其它
发布日期:2018-12-10
文件大小:18mb
提供者:
yylei1019
chinese-address-segment:中文地址分词(地址元素识别与抽取),通过序列标注进行NER-源码
项目背景: 地址元素识别可以撤出地址中不同的地址元素,同时也可以作为其他项目任务的基础。 使用: train_eval.py:训练与评估模型(可以选择IDCNN膨胀卷积网络或者BILSTM) address_segment_service:使用Tornado部署模型(可以进行多线程部署),从而通过http协议访问服务 示例: 在浏览器地址栏输入: {'string':'江苏省南京市*区雄州街道雄州南路333号冠城大通南郡25幢1单元502室“,'entities':[{'word':'江苏省
所属分类:
其它
发布日期:2021-03-21
文件大小:28kb
提供者:
weixin_42107165
«
1
2
3
4
5
6
7
8
9
10
»