您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 主题搜索,爬虫技术,链接结构,算法

  2. 主题搜索,基于链接结构和网页内容的网络爬虫技术。详细算法,原理。
  3. 所属分类:其它

    • 发布日期:2009-05-21
    • 文件大小:139264
    • 提供者:fanshouke
  1. 网页链接搜索王[WebScanKing]

  2. 国产简体中文版自动批量搜索并提取出网页上符合条件的超链接软件。运行程序后先根据搜索站点的页面数据规律生成待搜索的网站页面地址列表,然后导入该列表后搜索即可。根据网站访问速度快慢调节搜索间隔时间,软件自动打开每个网站页面提取超链接,自动提取符合条件的超链接,去掉不符合条件的超链接并可去掉重复网址。软件可以搜索ASP/PHP/CGI等各种形式的网页,包括那些需要进行COOKIS验证登陆的站点,都可轻松地快速搜集到大量的目标超链接地址。搜索到的超链接地址列表文件可以为配套的邮件地址搜索、传真号码搜索
  3. 所属分类:C#

    • 发布日期:2009-12-19
    • 文件大小:296960
    • 提供者:ouyangmin
  1. 网页链接搜索王[WebScanKing]

  2. 国产简体中文版自动批量搜索并提取出网页上符合条件的超链接软件。运行程序后先根据搜索站点的页面数据规律生成待搜索的网站页面地址列表,然后导入该列表后搜索即可。根据网站访问速度快慢调节搜索间隔时间,软件自动打开每个网站页面提取超链接,自动提取符合条件的超链接,去掉不符合条件的超链接并可去掉重复网址。软件可以搜索ASP/PHP/CGI等各种形式的网页,包括那些需要进行COOKIS验证登陆的站点,都可轻松地快速搜集到大量的目标超链接地址。搜索到的超链接地址列表文件可以为配套的邮件地址搜索、传真号码搜索
  3. 所属分类:Web开发

    • 发布日期:2009-12-25
    • 文件大小:381952
    • 提供者:ouyangmin
  1. CHM merge ,chm 合成(真正合成),chm 链接合成,免安装

  2. 轻松合并多个 CHM 帮助文件的工具,操作简单,只需两步!第一步,添加文件;第二步,编译完成。合并后的 CHM 文件具有目录列表及全文搜索功能,层次结构清晰,方便收藏阅读。 借助 CHM Merge 特有的功能,可以轻松构建属于自己的电子图书馆(类似 MSDN ),或者创建大型的帮助系统,方便资料的收集整理和搜索利用等。 CHM Merge 支持多层次合并,合并后生成的 CHM 文件依然可以被再次合并。 CHM Merge 还能将各种 HTML 网页文件 (*.htm *.html 等 ) 编
  3. 所属分类:Web开发

    • 发布日期:2010-03-19
    • 文件大小:1048576
    • 提供者:btlxy
  1. 链接检查工具 Link Validator 2.2

  2. 链接检查工具 Link Validator 2.2 软件描述: 链接检查工具 (Link Validator 2.2)是优异搜索有限责任公司(www.ueseo.org)制作的,旨在帮助广大站长和网商更快速地推广网站的工具。 链接检查工具(Link Validator 2.2)可以自动抓取一个网站的所有网页链接,检查链接是否可以访问,以及测试网页加载速度。死链接和慢链接对用户体验和搜索排名有非常恶劣的影响。 网站拥有者需要去掉死链接,并提高网页加载速度。网页响应较慢,可能是因为服务器性能欠佳,
  3. 所属分类:互联网

    • 发布日期:2011-12-18
    • 文件大小:12582912
    • 提供者:jibohe2
  1. nutch解决搜索结果高亮和网页快照链接无效及网页变形

  2. nutch解决搜索结果高亮和网页快照链接无效及网页变形
  3. 所属分类:Java

    • 发布日期:2012-02-16
    • 文件大小:472064
    • 提供者:yangshangchuan
  1. 网页链接搜索王

  2. 网页链接搜索王,自动 ,省事 ,高效,一网打进
  3. 所属分类:网络游戏

    • 发布日期:2013-03-15
    • 文件大小:478208
    • 提供者:dbnjzy
  1. 全站死链接检查

  2. 死链接 - 也称无效链接,即那些不可达到的链接。一个网站存在死链接不是什么好事,首先一个网站如果存在大量的死链接,必将大大损伤网站的整体形象,再者搜索引擎蜘蛛是通过链接来爬行搜索,如果太多链接无法到达,不但收录页面数量会减少,而且你的网站在搜索引擎中的权重会大大降低。该查询可以遍历指定网页的所有链接,并分析每个链接的有效性,找出死链接。
  3. 所属分类:Web开发

    • 发布日期:2013-03-20
    • 文件大小:276480
    • 提供者:xiaoko1991
  1. 免费交换链接

  2. 【系统开发环境】 正式高级功能版20111127版 1. 系统环境:WINDOWS 2003 +IIS 6.0 2. 数 据 库:Access2003 3. 测试浏览器:腾讯TT浏览器 微软IE浏览器6.0 微软IE浏览器7.0 4. 系统分辨率:1024X768 -------------------------------------------------------------------------- ☆系统前台简介☆ 1.申请加入591交换链的网站按最后点进的时间排序首页和分类显示
  3. 所属分类:C#

    • 发布日期:2013-04-29
    • 文件大小:4194304
    • 提供者:u010508490
  1. 千寻元搜索系统V2.0

  2.   “千寻元搜索系统”原名“MST自动化元搜索系统”,是一款多引擎多线程自动化信息搜索及网页数据抓取处理系统,软件整合了国内绝大部分搜索引擎,您可以方便的直接调用任意一个或多个搜索引擎进行信息搜索。本软件可以比常规的搜索引擎网站更精确、更方便、更具体地进行各种信息搜索,并可对搜索结果进行多元化的各种操作,使您能够从海量的搜索结果中更精确的找到需要的信息。    千主要功能有:1、多关键词多引擎自动化批量搜索采集信息。2、批量检测扫描网页内容包含的关键词。3、手机、QQ、邮箱联系方式自动抓取。4
  3. 所属分类:互联网

    • 发布日期:2014-03-27
    • 文件大小:11534336
    • 提供者:shiyu523
  1. 超强网页链接 网页导航工具

  2. 自己做的一个网页搜索,网页导航工具 分为娱乐,影视等常用的网站导航
  3. 所属分类:Java

    • 发布日期:2008-10-28
    • 文件大小:49152
    • 提供者:jun8807
  1. 从搜索引擎或者具体网页上提取链接

  2. [软件功能]: 本软件用于从搜索引擎或者具体网页上提取链接,主要用途是搜索留言本、论坛、blog等地址 通过您设定的关键词 软件自动在搜索引擎结果里提取符合条件的连接 本软件把超链接分为两部分看待:连接和连接名称 通过对这两部分的设定来提取符合要求的连接 可以设定只提取含有某“特征词”的网址 也可以设定过滤含有某“特征词”的网址(针对链接) 可以设定只提取链接名称含有某“特征词”的网址 也可以设定过滤链接名称含有某“特征词”的网址(针对链接名称) 提取搜索结果是一门技术,需要一定的电脑和网络基
  3. 所属分类:C#

    • 发布日期:2009-02-07
    • 文件大小:9216
    • 提供者:chnww
  1. 中国友情链接网历史上的今天美化版 V1.0.rar

  2. 【功能说明】    1.中国友情链接网历史上的今天V1.0。    2.运行环境asp Access。    3.模板采用div css布局,走在时尚做站的前沿。美化了网页风格;增加了天气预报显示,页面清爽大方。    4.本程序增加了搜索功能,输入历史关键词可查询。   演示地址:http://www.chinaurls.com/application/history/
  3. 所属分类:其它

    • 发布日期:2019-07-05
    • 文件大小:3145728
    • 提供者:weixin_39840387
  1. [搜索链接]Java网络爬虫(蜘蛛)源码_zhizhu.rar

  2. 用于搜索链接,对网页上的数据进行下载浏览,有完整的代码以及文件,可直接与运行,适用于学习网页爬虫的基础运行方法以及代码分析。
  3. 所属分类:互联网

    • 发布日期:2020-06-30
    • 文件大小:2097152
    • 提供者:lyxin___
  1. Python爬虫获取页面所有URL链接过程详解

  2. 如何获取一个页面内所有URL链接?在Python中可以使用urllib对网页进行爬取,然后利用Beautiful Soup对爬取的页面进行解析,提取出所有的URL。 什么是Beautiful Soup? Beautiful Soup提供一些简单的、python式的函数用来处理导航、搜索、修改分析树等功能。它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以不需要多少代码就可以写出一个完整的应用程序。 Beautiful Soup自动将输入文档转换为Unicode编码,输出文档转换
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:47104
    • 提供者:weixin_38731979
  1. Senior-Project:chrome扩展程序,它在每个给定的网页上搜索链接,并将这些链接发送到Virus Total,并解释和输出结果-源码

  2. Senior-Project:chrome扩展程序,它在每个给定的网页上搜索链接,并将这些链接发送到Virus Total,并解释和输出结果
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:40960
    • 提供者:weixin_42137723
  1. 基于入站超链接多样性分析的新型页面排名算法

  2. 作为搜索引擎的核心部件,网页排名算法决定了搜索到的相关结果以相关顺序呈现给用户,其性能的优劣将会直接影响搜索引擎的服务质量和用户的搜索体验。性时,现有的基于链接的网页排名算法和网页作弊检测算法仅关注网页的超链接数量和质量,而忽略了超链接来源的大量———另一种客观评价网页权威性的重要信息。。。。在真正的权威页面(具有大量且来源广泛的入链),通过作弊手段提升排名的网页经常不具有入链来源多样性的特征。基于以上思想,文中分别提出了超链接来源多样在多个基准数据集上的实验结果表明:与现有最好的同类算术...
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:1048576
    • 提供者:weixin_38683562
  1. 关于表征和计算用于反垃圾邮件页面排名的超链接的多样性

  2. 随着大数据时代的到来,在世界上最大的异构数据源Web上高效,有效地查询有用信息正变得越来越具有挑战性。 页面排名是搜索引擎的重要组成部分,因为它确定了与单个查询相关联的数千万个返回页面的显示顺序。 因此,它在调节信息检索的搜索质量和用户体验方面起着重要作用。 在衡量网页的权限时,大多数方法都集中在使用入站超链接定向到该网页的邻居页面的数量和质量上。 但是,这些方法忽略了此类邻居页面的多样性,我们认为这是客观评估网页权限的重要指标。 与通常包含来自各种来源的大量入站超链接的真实授权页面相比,使用链
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:808960
    • 提供者:weixin_38717574
  1. web-scraper-and-excel-writer:一个Python脚本,它提取遍历网页列表的表的链接和名称。 最后将收集的数据转储到excel文件中-源码

  2. Python WebScraper和Writer Workbook Excel文件 一个简单的python scraper 在此进行了,访问了指定字母之间的每个页面。 怎么运行的 使用urllib.request.urlopen(url)获取页面内容,然后使用解析html并将此参数作为features=html.parser 。 然后,我们就可以深入研究html内容并过滤所需的元素。 在这种情况下,该表具有唯一的标识符,因此我们搜索class属性为wikitable table元素。 然后,我
  3. 所属分类:其它

    • 发布日期:2021-03-02
    • 文件大小:5242880
    • 提供者:weixin_42121905
  1. 新啤酒:Untappd和Systembolaget之间缺少的链接-源码

  2. 新啤酒 :beer_mug: Untappd和Systembolaget之间缺少链接。 部署状态 信息 技术领域 前端 React 打字稿 样式化的组件 GraphQL PWA 服务人员 离线 网络通知 后端 节点 GraphQL 弹性搜索 雷迪斯 OAuth 基础设施 后端 Heroku 网页 工人 前端 Netlify 外部API:s 系统螺栓 t 版本控制 吉特 依赖自动化 翻新 指令 安装 > npm i 运行测试 > npm run test 运行应用 &g
  3. 所属分类:其它

    • 发布日期:2021-02-14
    • 文件大小:3145728
    • 提供者:weixin_42131405
« 12 3 4 5 6 7 8 9 10 ... 40 »