您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. TCP拦截和网络地址转换

  2. TCP拦截和网络地址转换 本书将讨论与访问表相关的技术,而非访问表本身。这些技术提供了控制网络中数据流 量的附加功能。这些功能特性会使读者能够加强进出网络报文的附加功能。通过智能地对数 据本身进行操作,例如,可以操纵 I P报文中的源和目的地址,或者给某种通信报文分配较多 的带宽,读者就能够进一步加强进出网络的报文的安全性和控制能力。本章将讨论两种特性: T C P拦截和网络地址转换(Network Address Tr a n s l a t i o n,N AT),它们可以大大加强对网络中
  3. 所属分类:C

    • 发布日期:2009-12-21
    • 文件大小:773kb
    • 提供者:hexiang221
  1. ACWPS(爱博汉语分词系统)分词组件 asp分词组件

  2. 爱博汉语分词系统Web服务器支持标准的HTTP协议,可以跨平台调用,支持分布式运算; 爱博汉语分词系统COM组件提供COM和DLL接口(Windows环境) 以及共享库.so(Linux)形式,可支持所有支持COM接口调用的编程语言及脚本语言。 如:PHP、JSP、ASP、ASP.net、C/C++ 、VC6.0 、VC.net、BC、C#、VB6.0 、VB.net、Delphi、Java等。 爱博汉语分词系统支持自定义词语的功能,用户可根据自己需要定义添加汉语词组。 可根据需要自行定义影响
  3. 所属分类:C#

    • 发布日期:2010-02-28
    • 文件大小:2mb
    • 提供者:selectersky
  1. 汉谷输入法双项练习

  2. 本教学软件采用FLASH制作,电脑版练习的是汉谷拼形输入法,手机版练习的是汉谷无重码输入法。电脑版的词语输入规则是:两字词语第1字输入前3码,第2字输入前2码;多字词每字输入前2码。目前网上下载的汉谷拼形输入法将词语输入规则统一为:第1字取前3码,其余各字取前2码。这点差别并不影响我们对汉谷输入法的学习和掌握。学习汉谷输入法的关键是要掌握汉字拆分为字母的规则以及字母与数字之间的对应关系。
  3. 所属分类:其它

    • 发布日期:2013-08-15
    • 文件大小:8mb
    • 提供者:u011680881
  1. C# 提取文章关键词

  2. 代码实现从文章内容拆分,对词语进行排序,从而提取出现最多次数的词。
  3. 所属分类:C#

    • 发布日期:2014-08-07
    • 文件大小:625kb
    • 提供者:fraing
  1. 用于代替正则匹配的大段文字的匹配

  2. 用于大篇文章中的词语拆分, 可以有效减少正则匹配
  3. 所属分类:PHP

    • 发布日期:2017-06-13
    • 文件大小:37kb
    • 提供者:qq_38803736
  1. 拆分词语字典以及工具

  2. 1.拆分字库文档,用于匹配汉字,汉字的不同拆法。 2.拆字工具是一个可以将一句完整句子拆成几个偏旁的工具
  3. 所属分类:其它

    • 发布日期:2018-12-21
    • 文件大小:293kb
    • 提供者:qq_38912915
  1. 使用同义词词林扩展版的词语相似度计算剖析

  2. 本例是基于《哈工大信息检索研究中心同义词词林扩展版》做的,其中详细分析了将源文件差拆分成五层结构,并对同义词计算,进行了跟踪分析。 其中根目录下的Synonymy是项目文件|||Synonymy/text-file中的origin.txt其实就是根目录下的:xx词林扩展版.txt |||SliceArrangement.java 是我自己手写的拆分方法,但是比较慢。期待改良。||| CiLin.java ||| 来源于网上的计算方法(具体参照了田久乐先生的论文中所提出的计算方法,详情请参照:基
  3. 所属分类:Java

    • 发布日期:2019-05-05
    • 文件大小:1mb
    • 提供者:qq_36791569
  1. jQuery中文暴力拆词工具.zip

  2. jQuery中文暴力拆词工具基于jquery.1.10.2.min.js制作,全文检索拆词,词语拆分成多个词组。
  3. 所属分类:其它

    • 发布日期:2019-07-04
    • 文件大小:36kb
    • 提供者:weixin_39841856
  1. elasticsearch-analysis-ik-6.6.0.zip

  2. es分词工具,切分词语,normalization(提升recall召回率) 给你一段句子,然后将这段句子拆分成一个一个的单个的单词,同时对每个单词进行normalization(时态转换,单复数转换),分瓷器 recall,召回率:搜索的时候,增加能够搜索到的结果的数量
  3. 所属分类:群集服务

    • 发布日期:2019-07-31
    • 文件大小:4mb
    • 提供者:liangpengjun_1
  1. 中文词典.txt

  2. 中文词典 NLP ,收录45159条中文词语,每行一个用 /n 隔开,方便拆分使用 哀怜 哀鸣 哀戚 ... 曝光 曝光表 曝露
  3. 所属分类:深度学习

    • 发布日期:2019-09-17
    • 文件大小:295kb
    • 提供者:leilong121
  1. 基于大数据新闻网站文本挖掘的网络舆情监测设计与实现

  2. 当今中国,网民人数已经超过人口总数的一半,因此网络舆情监测具有十分重要的意义。本文首先应用网络爬虫技术实现对新闻报道和对应网民评论文本数据获取。因为数据量大,所以选择Hadoop集群进行文本数据储存。其次,通过中文分词技术对文本数据按词语进行拆分,并对得到的词语进行过滤和挑选,得到关键词。新闻报道文本中获取的关键词用于新闻类型与主题的判别,网民评论中的关键字反映了网民对此新闻报道的观点和态度。最后,应用此方法,对"中美贸易战"事件进行网络舆情监测,从获得的新闻报道主题和网民评论的关键字表明,本文
  3. 所属分类:其它

    • 发布日期:2020-04-18
    • 文件大小:667kb
    • 提供者:weixin_38733525
  1. 1234笔画输入法 v5.02官方版

  2. 为您提供1234笔画输入法下载,1234笔画输入法是由的入门级中文输入法软件,其主要用途是帮助不会拼音五笔的网友用键盘写字的方法输入文字。功能介绍  1. 支持键盘输入与鼠标点击输入。  2. 支持大键盘与数字小键盘自定义键位设置。  3. 支持单字输入、词语输入、词语联想输入。  4. 不会打的字可使用鼠标手写板输入并查询笔画正确拆分。  5. 自带拼音笔画查询小字典,方便批量查询字词读音与笔画拆分。  6. 自定义词语功
  3. 所属分类:其它

  1. 统计文本词频并输出为Excel表格形式——Python实现

  2. 统计文本词频并输出为Excel表格形式——Python实现 本次实例主要是熟练对中文分词库_jieba库,以及二维数据存储_csv库的使用。 目录 简单介绍两个库的使用 实例问题及问题分析 Python实现 一、简单介绍两个库的使用 jieba库:中文分词库,将中文文本分解为单个词语进行处理。 jeba.lcut(s):精确模式,对原文本进行词语拆分,无冗余。 jieba.lcut(s,cut_all=True):全模式,对文本进行拆分,列出所以可以组成的词语,存在冗余。 jieba.lcut_
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:92kb
    • 提供者:weixin_38640443
  1. 统计文本词频并输出为Excel表格形式——Python实现

  2. 统计文本词频并输出为Excel表格形式——Python实现 本次实例主要是熟练对中文分词库_jieba库,以及二维数据存储_csv库的使用。 目录 简单介绍两个库的使用 实例问题及问题分析 Python实现 一、简单介绍两个库的使用 jieba库:中文分词库,将中文文本分解为单个词语进行处理。 jeba.lcut(s):精确模式,对原文本进行词语拆分,无冗余。 jieba.lcut(s,cut_all=True):全模式,对文本进行拆分,列出所以可以组成的词语,存在冗余。 jieba.lcut_
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:93kb
    • 提供者:weixin_38629362
  1. 还在为专栏封面发愁?我用Python写了个词云生成器!

  2. 妈妈再也不用担心我写专栏找不到合适的封面了!B站专栏的封面至少是我一直头疼的问题,每次写完文章却找不到合适的图片作为封面。 词云是一个很不错的选择,既美观,又提纲挈领。网上也有词云生成的工具,但大多收费/只能试用,很多设置也不能调整。于是我最终决定自己动手丰衣足食。 网上有很多关于词云生成的Python代码,但大多结构松散,要调一项设置要在代码里上上下下各个库里进行修改,不方便使用。于是我想把我们常用的设置封装到一个函数里,这样方便我们日常使用。 总的思路是采用Jieba库对中文文章进行词语拆
  3. 所属分类:其它

    • 发布日期:2020-12-22
    • 文件大小:290kb
    • 提供者:weixin_38677472
  1. Python-[jieba库应用]-统计水浒传中人物出现次数

  2. 最近被线段树一卡,卡的我啥也不会了,也就一个星期没写博客。 正巧女朋友学python,之前也跟着凑凑热闹,正巧最近问了我一个题:如何用jieba库统计水浒传人物出现得次数,并且输出前20名得人物。 想了想直接暴力不久完了,管他多暴力呢 文章目录思路预先处理代码部分运行结果 思路 主要思路:其实就是用jieba库先将文章进行拆分,然后我们创建一个字典,用来统计每个人物出现得次数,当然这里可能就会出现一个问题了,有些不是人名得词语也会被统计上,那怎么办呢?我们可以先将人名输入到一个列表当中,循环记
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:111kb
    • 提供者:weixin_38694355
  1. jQuery中文暴力拆词工具特效代码

  2. jQuery中文暴力拆词工具基于jquery.1.10.2.min.js制作,全文检索拆词,词语拆分成多个词组。
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:34kb
    • 提供者:weixin_38669093