您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 与浏览器兼容性好的屏幕取色器

  2. 之前下过数次网页取色器,下载后才发现是htmlcolor取色器,这个取色器的缺点是,在使用多页面浏览器打开网页取色时,如按F1、F2、F3等复制取色参数时,就会与浏览器发生冲突,导致取色参数错误。而且参数前没有“#”符号,还要多动手一次。后来,又到处去找,终于找到一个个人认为比较好用的屏幕取色器。 名称:屏幕取色器 性质:绿色免安装软件 大小:68.0KB 使用方法:单击左侧的小取色器,(注:就是象photoshop里的工具取色器图标这个图标),按住不放,然后拖动鼠标移动到要获取颜色处松鼠标左
  3. 所属分类:Web开发

    • 发布日期:2009-05-12
    • 文件大小:17kb
    • 提供者:asp1030
  1. c#多线程抓取网页内容

  2. 在《爬虫/蜘蛛程序的制作(C#语言)》一文中,已经介绍了爬虫程序实现的基本方法,可以说,已经实现了爬虫的功能。只是它存在一个效率问题,下载速度可能很慢。这是两方面的原因造成的: 1. 分析和下载不能同步进行。在《爬虫/蜘蛛程序的制作(C#语言)》中已经介绍了爬虫程序的两个步骤:分析和下载。在单线程的程序中,两者是无法同时进行的。也就是说,分析时会造成网络空闲,分析的时间越长,下载的效率越低。反之也是一样,下载时无法同时进行分析,只有停下下载后才能进行下一步的分析。问题浮出水面,我想大家都会想到
  3. 所属分类:C#

    • 发布日期:2010-12-18
    • 文件大小:6kb
    • 提供者:mfr625
  1. 在线邮件列表抓取与发送系统2.0(完整SQL版)

  2. 在线邮件列表抓取与发送系统2.0(完整SQL版) 2.0增强了邮件抓取的功能 概述: ·最大的特点就是发送成功率为100%,并不会成为垃圾邮件 ·1小时可将从20万txt文本邮址导入到数据库 ·24小时可从指定网站高效抓取1-2万邮址(取决于对方网站访问速度) ·24小时发送数量大量为1-2万封 ·可以分析发送邮件的有效性与重复性 ·可以过滤邮件地址或邮件地址包含某些字段 ·可以设置多个发送帐号,保证发送率 使用说明: ·须安装jmail组件 ·帐号:admin 密码:111111 ·将Dat
  3. 所属分类:其它

    • 发布日期:2006-04-30
    • 文件大小:16mb
    • 提供者:chenxh
  1. c语言网页抓取程序源代码

  2. linux下c语言开发的多线程网页抓取程序。线程数、路径可配置。总共一千多行。
  3. 所属分类:C

    • 发布日期:2013-01-12
    • 文件大小:15kb
    • 提供者:ljmdbc7a
  1. 屏幕取色最好用的工具

  2. 用了多年的网页取色工具,数这个好用了。简单,明了。希望能给网页设计者带来便利。
  3. 所属分类:Web开发

    • 发布日期:2013-01-26
    • 文件大小:375kb
    • 提供者:jizf
  1. 天涯易栈VC++网页操作类

  2. BOOL ControlsInitialization(HWND hWnd);//从控件句柄初始化 void ObjectInitialization(CComPtr pDisp);//对象初始化 CString TenToHtmlColor(DWORD CurColor);//将整数型的颜色值转换为网页支持的格式 void WebComplete(HWND hWnd,int Timedelay=0/*单位:毫秒 为空则一直等待*/);//确认网页已经完全载入 HWND GetIesHandl
  3. 所属分类:C++

    • 发布日期:2013-07-27
    • 文件大小:2mb
    • 提供者:showsoft
  1. 网页资源抓取器jar

  2. 一个小巧很坑爹的软件,能抓取网页上的资源。 使用方法: 1.地址栏输入网页的地址,以http开头 2.文件夹地址右边的按钮有点问题 3.线程数不宜过多 代码很粗糙
  3. 所属分类:Java

    • 发布日期:2014-07-17
    • 文件大小:13kb
    • 提供者:calmwv_yu
  1. 网站访客qq统计网页获取qq系统

  2. 获取自己网站访客QQ号码源码,价值上万。营销利器呀。
  3. 所属分类:PHP

    • 发布日期:2014-10-15
    • 文件大小:7mb
    • 提供者:sunxinle123
  1. 界面取色器

  2. 此取色器能自动复制你所选取的颜色的16进制数,方便快捷
  3. 所属分类:PHP

    • 发布日期:2014-12-18
    • 文件大小:380kb
    • 提供者:qq_24618813
  1. java根据json规则抓取(新浪新闻、百度新闻、微博动态)的网页内容源码

  2. java根据自定义json格式规则抓取新浪新闻、百度新闻、微博动态内容的网络爬虫源码 例子中的源码功能: 导入Hbase的jar包即可直接返回Put对象数据、可以返回map对象数据、支持自定义json格式抓取指定网页的内容、抓取指定时间段内容、抓取指定关键内容、对新闻进行正负面分类、对时间的格式进行了统一的维护、可抓取指定(页数/条数)内容、原始json规则可抓取信息:标题、url链接、内容、时间、来源
  3. 所属分类:Java

    • 发布日期:2017-08-30
    • 文件大小:1mb
    • 提供者:jkl012789
  1. 从网页取数填入excel表中

  2. 从网页取数填入excel表中,写代码,从网页提取资料,填到excel表中
  3. 所属分类:VB

    • 发布日期:2018-03-25
    • 文件大小:50kb
    • 提供者:fnycwfj
  1. 京爬取京东、苏宁价格利用Echarts技术生成条形、折线图

  2. // 获取搜索出来的网页页数pageNum String pageNum = Jsoup.connect(urljd).ignoreContentType(true) .header("User-Agent", "Mozilla/5.0 (Windows NT 6.1; WOW64; rv:33.0)" + " Gecko/20100101 Firefox/33.0") .get().select("#J_topPage .fp-text i").get(0).text(); System.o
  3. 所属分类:Java

    • 发布日期:2018-05-18
    • 文件大小:3mb
    • 提供者:madmy
  1. web基础蜘蛛网页文章采集器 v3.2.zip

  2. web基础蜘蛛网页文章采集器,英文名称Fast_Spider,属于蜘蛛爬虫类程序,用于从指定网站采集海量精华文章,将直接丢弃其中的垃圾网页信息,仅保存具备阅读价值和浏览价值的精华文章,自动执行HTM-TXT转换。本软件为绿色软件解压即可使用。 web基础蜘蛛网页文章采集器特点如下: (1)本软件采用北大天网MD5指纹排重算法,对于相似相同的网页信息,不再重复保存。 (2)采集信息含义:[[HT]]表示网页标题,[[HA]]表示文章标题,[[HC]]表示10个权重关键字,[[UR]]表示网页
  3. 所属分类:其它

  1. 翻页爬取网页版前程无忧的职位相关信息,生成一个Excel表格

  2. 翻页爬取网页版前程无忧的职位相关信息,每一个大概有50条岗位信息,首页展示的只有职位名,公司名,工作地点的部分信息,薪资以及发布日期。对于找工作来说,我希望看到的还有:     公司具体地址: 如果离家太远,上下班会比较花时间。     工作经验要求:判断自身经验是否达到要求     同一个公司职位发布条数:判断是否为虚假招聘,有很多虚假招聘的公司,大量发布类似招聘信息。   最后,我选择的爬取内容为为:岗位名,公司名,经验要求,公司详细地址,岗位薪资,招聘详细信息页面url。
  3. 所属分类:软件测试

    • 发布日期:2020-04-05
    • 文件大小:4kb
    • 提供者:q1015585041
  1. php实现的网页版剪刀石头布游戏示例

  2. 本文实例讲述了php实现的网页版剪刀石头布游戏。分享给大家供大家参考,具体如下: <?php /* * Created on 2016-11-25 * */ if (isset($_POST['sub'])) { $what = $_POST['what']; //需要输入的数组 $my_array = array("剪刀","石头","布"); //获胜规则 $guize = array(array("剪刀","布"),array("布","石头"),arr
  3. 所属分类:其它

    • 发布日期:2020-12-18
    • 文件大小:50kb
    • 提供者:weixin_38719578
  1. Scrapy-redis爬虫分布式爬取的分析和实现

  2. Scrapy Scrapy是一个比较好用的Python爬虫框架,你只需要编写几个组件就可以实现网页数据的爬取。但是当我们要爬取的页面非常多的时候,单个主机的处理能力就不能满足我们的需求了(无论是处理速度还是网络请求的并发数),这时候分布式爬虫的优势就显现出来。 而Scrapy-Redis则是一个基于Redis的Scrapy分布式组件。它利用Redis对用于爬取的请求(Requests)进行存储和调度(Schedule),并对爬取产生的项目(items)存储以供后续处理使用。scrapy-red
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:208kb
    • 提供者:weixin_38618315
  1. node.js基础模块http、网页分析工具cherrio实现爬虫

  2. 一、前言       说是爬虫初探,其实并没有用到爬虫相关第三方类库,主要用了node.js基础模块http、网页分析工具cherrio。 使用http直接获取url路径对应网页资源,然后使用cherrio分析。 这里我主要学习过的案例自己敲了一遍,加深理解。在coding的过程中,我第一次把jq获取后的对象直接用forEach遍历,直接报错,是因为jq没有对应的这个方法,只有js数组可以调用。 二、知识点     ①:superagent抓去网页工具。我暂时未用到。     ②:cherrio
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:70kb
    • 提供者:weixin_38501916
  1. scrapy+selenium之中国裁判文书网文书爬取

  2. 浅尝python网络爬虫,略有心得。有不足之处,请多指正 url = https://wenshu.court.gov.cn/ 爬取内容:裁判文书 爬取框架:scrapy框架  +  selenium模拟浏览器访问 开始想暴力分析网页结构获取数据,哈哈哈哈哈,天真了。看来自己什么水平还真不知道。 之后锁定pyspider框架,搞了四五天。该框架对于页面超链接的连续访问问题,可以手动点击单个链接测试,但是通过外部“run”操作,会获取不到数据。其实最后发现很多博客说pyspider的官网文档已经很
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:319kb
    • 提供者:weixin_38731761
  1. python爬虫爬网页部分内容空白,但源码可以看到,已解决

  2. 曾尝试各种方法,没有效果。使用的是函数requests.get(),已写header、cookie、User-Agent,也写了rsp.encoding = rsp.apparent_encoding。 但是仍是爬取不了。奇怪的同一个网站同一个榜单,只是页数不同,前若干页能爬取,后若干页就爬取不了,一度怀疑是不允许爬。 最后终于发现原因! 因为Cookie找错了(kao!!!!!) 注意要用这里的cookie! (下图是Chrome的开发者工具视图) 用requests.get()的标准格式:
  3. 所属分类:其它

    • 发布日期:2020-12-22
    • 文件大小:304kb
    • 提供者:weixin_38609732
  1. Python实战演练之跨页爬取

  2. 上章回顾 上一章Python实战演练之scrapy初体验中讲到了scrapy项目的创建,爬虫的创建,以及数据的提取。 跨页爬取如何实现 不过这些都是建立在单页网页数据的爬取之中,很多时候我们需要跨很多页去爬取数据,这个时候该怎么实现呢? 首先分析该网页的下一页和本页的区别 https://edu.csdn.net/courses/o280/p1 (第一页) https://edu.csdn.net/courses/o280/p2 (第二页) 可以明显判断出p后面的是页数,即修改该处即可获取下一页
  3. 所属分类:其它

    • 发布日期:2020-12-22
    • 文件大小:34kb
    • 提供者:weixin_38720653
« 12 3 4 5 6 7 8 9 10 ... 13 »