您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. c# 多线程网页信息抓取

  2. 多线程网页信息抓取实现,强大的信息抓取功能
  3. 所属分类:C#

    • 发布日期:2010-04-20
    • 文件大小:772kb
    • 提供者:ghost_khz
  1. c#多线程抓取网页内容

  2. 在《爬虫/蜘蛛程序的制作(C#语言)》一文中,已经介绍了爬虫程序实现的基本方法,可以说,已经实现了爬虫的功能。只是它存在一个效率问题,下载速度可能很慢。这是两方面的原因造成的: 1. 分析和下载不能同步进行。在《爬虫/蜘蛛程序的制作(C#语言)》中已经介绍了爬虫程序的两个步骤:分析和下载。在单线程的程序中,两者是无法同时进行的。也就是说,分析时会造成网络空闲,分析的时间越长,下载的效率越低。反之也是一样,下载时无法同时进行分析,只有停下下载后才能进行下一步的分析。问题浮出水面,我想大家都会想到
  3. 所属分类:C#

    • 发布日期:2010-12-18
    • 文件大小:6kb
    • 提供者:mfr625
  1. Sosoo 1.0网络爬虫程序.doc

  2. Sosoo 1.0网络爬虫程序 ---用户开发手册 编写人:王建华(rimen/jerry) 编写目的:基于sosoo定制web spider程序的编程人员。 目录 一:安装sosoo 2 二:功能定制 2 1.基本功能参数的设置。 2 2.配置机器人对url的检查 3 3:实现文件管理。 4 4.定制html文档下载规则。 4 5.设置对下载后http文档的过滤处理 5 6.启用机器人运行期监控。 5 7.启用对http协议分析的监控。 5 三:sosoo描述 6 四:应用开发指南 6 1.
  3. 所属分类:Web开发

    • 发布日期:2010-12-18
    • 文件大小:39kb
    • 提供者:mfr625
  1. ASP.NET网页抓取功能

  2. 项目结构说明: \ ……\App_Data 项目数据库文件 (ACCESS2003) ……\bin\ …………\AjaxPro.2.dll .NET调用AJAX类库 …………\App_Code.dll 功能类文件 …………\App_Web_ka4newz2.dll *.aspx.cs文件打包 ……\JS\ …………\jquery-1.4.4.min.js JQuery库 …………\scr ipt 系统自定义JS文件 ……\Default.aspx 系统功能页面 ……\Help.txt 帮助文档
  3. 所属分类:Web开发

  1. ASP.NET 网页抓取WEB版

  2. 2010/12/30 v1.2版 改掉程序中所有的select标签 项目结构说明: \ ……\App_Data 项目数据库文件 (ACCESS2003) ……\bin\ …………\AjaxPro.2.dll .NET调用AJAX类库 …………\App_Code.dll 功能类文件 …………\App_Web_ka4newz2.dll *.aspx.cs文件打包 ……\JS\ …………\jquery-1.4.4.min.js JQuery库 …………\scr ipt 系统自定义JS文件 ……\De
  3. 所属分类:Web开发

  1. C#信息采集工具实现

  2. 简单C#信息采集工具实现 http://blog.csdn.net/xiaoxiao108/archive/2011/06/01/6458367.aspx 最近想整只爬虫玩玩,顺便熟悉下正则表达式。 开发环境 vs2008 sql2000 实现方法如下 1.先抓取网页代码 2.通过正则匹配出你需要的内容 比如http://www.soso.com/q?w=%C4%E3%BA%C3&pg=1 页面中 搜索结果的标题跟连接地址。具体可以根据你的需要填写合适的地址跟正则。 3.把匹配出的内容保存到数
  3. 所属分类:C#

    • 发布日期:2011-06-01
    • 文件大小:333kb
    • 提供者:xiaoxiao108
  1. winform程序实现多线程网页信息抓取源码

  2. 爬虫程序多网页内容进行抓取,其中主要在WinForm上实现
  3. 所属分类:C#

    • 发布日期:2011-06-02
    • 文件大小:772kb
    • 提供者:feifei_luntan
  1. LoalaSam_Beta_V0.3.0 网络爬虫

  2. LoalaSam是一个由VC6.0开发,运行在Windows平台上的网络爬虫(蜘蛛)程序,它可以高效地从互联网上获取海量资源,这些资源包括网页文本信息,图片,音频,视频以及其他类型的二进制文件资源 LoalaSam的特点: 1、高效的互联网爬行及资源下载 2、广泛的目标资源及可配置性 3、多线程下载及异步DNS请求机制 4、深度优先爬行算法 5、可选择性的遍历单个域名、多个域名、公司网站或者整个互联网
  3. 所属分类:C++

    • 发布日期:2011-09-01
    • 文件大小:593kb
    • 提供者:bearshadow
  1. 百度mp3下载器

  2. 抓取网页信息,下载歌曲,只写了个单线程下载,有能力的同学可以写改写多线程下载
  3. 所属分类:C#

    • 发布日期:2012-09-25
    • 文件大小:4mb
    • 提供者:daring1981
  1. 商剑网络信息万能采集器(商剑采集-完全免费!!!)

  2. 软件名称: 商剑网络信息万能采集器 软件版本:3.2 应用平台:Win9x/Me/NT/2000/XP/2003 官方网址:http://www.100spider.cn/ 下载网址1:http://www.100spider.cn/F-spider.rar 软件界面图:http://www.100spider.cn/p/1.jpg 软件简介: 商剑,能把整个百度的图片都采集下来! 商剑,能把淘宝网全部商品信息都采集下来! 商剑,能把聪慧网全部企业信息都采集下来! 商剑信息采集软件,是一款可以
  3. 所属分类:网络基础

    • 发布日期:2008-09-28
    • 文件大小:3mb
    • 提供者:spider100
  1. 自己动手写网络爬虫

  2. 完整版《自己动手写网络爬虫》! 第1篇 自己动手抓取数据 第1章 全面剖析网络爬虫 3 1.1 抓取网页 1.1.1 深入理解url 1.1.2 通过指定的url抓取网页内容 1.1.3 java网页抓取示例 1.1.4 处理http状态码 1.2 宽度优先爬虫和带偏好的爬虫 1.2.1 图的宽度优先遍历 1.2.2 宽度优先遍历互联网 1.2.3 java宽度优先爬虫示例 1.2.4 带偏好的爬虫 1.2.5 java带偏好的爬虫示例 1.3 设计爬虫队列 1.3.1 爬虫队列 1.3.2
  3. 所属分类:专业指导

    • 发布日期:2013-10-27
    • 文件大小:27mb
    • 提供者:qq674708957
  1. 站长工具可以进行seo自动优化以及网站信息批量查询

  2. 一:友情连接批量查询(可同时查询上百个站点友情连接情况.支持结果过滤/导出功能) 二:关键词排名批量查询(可采集指定网站的关键词查询.支持结果过滤/导出功能) 三:百度权重查询(可查出站点在百度靠前的页面,百度指数等.支持结果过滤/导出功能) 四:采集伪原创工具(只需要输入关键词,就能给您自动生成出上千篇原创文章.支持导出) 五:网络外链查询(可查询在网络中那些站点带有您的页面地址,并以地址/标题列出) 六:长尾词挖掘工具(可同时多线程挖掘百度,谷歌,搜搜,雅虎,淘宝站点热门长尾词.支持结果过
  3. 所属分类:电子商务

    • 发布日期:2013-11-07
    • 文件大小:1mb
    • 提供者:jacobsan
  1. 获取网页特定信息

  2. 获取特定网站中的网页的特定信息,程序运用的是线程池来处理多线程。获取到的信息存入Access数据库中
  3. 所属分类:C#

    • 发布日期:2014-02-12
    • 文件大小:582kb
    • 提供者:jj547139491
  1. 千寻元搜索系统V2.0

  2.   “千寻元搜索系统”原名“MST自动化元搜索系统”,是一款多引擎多线程自动化信息搜索及网页数据抓取处理系统,软件整合了国内绝大部分搜索引擎,您可以方便的直接调用任意一个或多个搜索引擎进行信息搜索。本软件可以比常规的搜索引擎网站更精确、更方便、更具体地进行各种信息搜索,并可对搜索结果进行多元化的各种操作,使您能够从海量的搜索结果中更精确的找到需要的信息。    千主要功能有:1、多关键词多引擎自动化批量搜索采集信息。2、批量检测扫描网页内容包含的关键词。3、手机、QQ、邮箱联系方式自动抓取。4
  3. 所属分类:互联网

    • 发布日期:2014-03-27
    • 文件大小:11mb
    • 提供者:shiyu523
  1. Python网络爬虫的设计与实现

  2. 本课题的主要目的是设计面向定向网站的网络爬虫程序,同时需要满足不同的性能要求,详细涉及到定向网络爬虫的各个细节与应用环节。 搜索引擎作为一个辅助人们检索信息的工具。但是,这些通用性搜索引擎也存在着一定的局限性。不同领域、不同背景的用户往往具有不同的检索目的和需求,通用搜索引擎所返回的结果包含大量用户不关心的网页。为了解决这个问题,一个灵活的爬虫有着无可替代的重要意义。 网络爬虫应用智能自构造技术,随着不同主题的网站,可以自动分析构造URL,去重。网络爬虫使用多线程技术,让爬虫具备更强大的抓取能
  3. 所属分类:Python

  1. 10个线程的Python多线程爬虫(采集新浪数据).rar

  2. 一个Python多线程爬虫,在工作时,开10个线程来抓取新浪网页的数据,抓取并保存页面, 并且根据deep返回页面链接,根据key确定是否保存该页面,其中:   deep == 0时,是抓取的最后一层深度,即只抓取并保存页面,不分析链接   deep > 0时,返回该页面链接。   编写本采集爬虫的具体要求:1. 指定网站爬取指定深度的页面,将包含指定关键词的页面内容存放到sqlite3数据库文件中   2. 程序每隔10秒在屏幕上打印进度信息   3. 支持线程池机制,并发爬取网页  
  3. 所属分类:其它

    • 发布日期:2019-07-10
    • 文件大小:31kb
    • 提供者:weixin_39840387
  1. python爬虫开发之使用Python爬虫库requests多线程抓取猫眼电影TOP100实例

  2. 这篇文章主要介绍了python爬虫开发之使用Python爬虫库requests多线程抓取猫眼电影TOP100实例,需要的朋友可以参考下 使用Python爬虫库requests多线程抓取猫眼电影TOP100思路: 查看网页源代码 抓取单页内容 正则表达式提取信息 猫眼TOP100所有信息写入文件 多线程抓取 运行平台:windows Python版本:Python 3.7. IDE:Sublime Text 浏览器:Chrome浏览器 1.查看猫眼电影TOP100网页原代码 按F12查看网页源代码
  3. 所属分类:其它

  1. php使用curl_init()和curl_multi_init()多线程的速度比较详解

  2. 本文实例讲述了php使用curl_init()和curl_multi_init()多线程的速度比较。分享给大家供大家参考,具体如下: php中curl_init()的作用很大,尤其是在抓取网页内容或文件信息的时候,例如之前文章《php使用curl获取header检测开启GZip压缩》就介绍到curl_init()的强大。 curl_init()处理事物是单线程模式,如果需要对事务处理走多线程模式,那么php里提供了一个函数curl_multi_init()给我们,这就是多线程模式处理事务的函数。
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:74kb
    • 提供者:weixin_38642349
  1. QQZoneMood:QQZone心情蜘蛛和分析。 提供在线服务,扫码登陆即可自动爬取和分析数据,还有网易云年度报告样式的数据展示;使用docker-compose打包程序,方便部署;额外提供QQ空间抽奖小程序-源码

  2. QQ区心情 体验地址: 相关博客 简介 多线程抓取QQ空间说说内容并进行分析,提供基于Flask和avalon.js的web配置界面,以及配套的测试用例 基于React幻灯片的数据展示页面,风格模仿网易云年度报告。子项目地址: 提供抽奖小程序,可以根据指定说说的点赞或评论信息进行随机抽奖(可单独打包为Windows下的命令行程序) 反向计算用户在每个时间点的好友数量,实时动态展示用户好友的增加过程,参考 系统架构图 docker版简介 本项目将网页配置版本打包为docker(以下简称doc
  3. 所属分类:其它

    • 发布日期:2021-02-02
    • 文件大小:46mb
    • 提供者:weixin_42131798
  1. python爬虫开发之使用Python爬虫库requests多线程抓取猫眼电影TOP100实例

  2. 使用Python爬虫库requests多线程抓取猫眼电影TOP100思路: 查看网页源代码 抓取单页内容 正则表达式提取信息 猫眼TOP100所有信息写入文件 多线程抓取 运行平台:windows Python版本:Python 3.7. IDE:Sublime Text 浏览器:Chrome浏览器 1.查看猫眼电影TOP100网页原代码 按F12查看网页源代码发现每一个电影的信息都在“”标签之中。 点开之后,信息如下: 2.抓取单页内容 在浏览器中打开猫
  3. 所属分类:其它

« 12 3 »