您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Python入门网络爬虫之精华版

  2. Python入门网络爬虫之精华版 Python学习网络爬虫主要分3个大的版块:抓取,分析,存储 另外,比较常用的爬虫框架Scrapy,这里最后也详细介绍一下。 首先列举一下本人总结的相关文章,这些覆盖了入门网络爬虫需要的基本概念和技巧:宁哥的小站-网络爬虫 当我们在浏览器中输入一个url后回车,后台会发生什么?比如说你输入http://www.lining0806.com/,你就会看到宁哥的小站首页。 简单来说这段过程发生了以下四个步骤: 查找域名对应的IP地址。 向IP对应的服务器发送请求
  3. 所属分类:Python

    • 发布日期:2016-11-04
    • 文件大小:5120
    • 提供者:q6115759
  1. 软件测试理论

  2. 软件测试理论篇 一、为什么软件要做软件测试 纵观历史事件说明软件测试的重要性 二、软件测试的概念 1、测试是为了发现错误而执行程序的过程 ; 2、在规定条件下,对程序进行操作,以发现错误,以软件质量进行评估 ; 3、使用人工或者自动化手段,来运行或者测试某个子系统的过程,其目的在于检查它是否 存在满足规定需求或弄清预期结果与实际结果之间的差别( IEEE :美国电气和电子工程师 协会)应用程序管理工具 2、软件基础知识:软件工程,软件生命周期、测试理论和测试方式有较深的理解 3、软件测试技术,方
  3. 所属分类:软件测试

    • 发布日期:2019-01-11
    • 文件大小:37888
    • 提供者:qq_33303936
  1. Python使用Selenium模拟浏览器自动操作功能

  2. 主要介绍了Python使用Selenium模拟浏览器自动操作功能,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:252928
    • 提供者:weixin_38665490
  1. Python使用Selenium模拟浏览器自动操作功能

  2. 概述 在进行网站爬取数据的时候,会发现很多网站都进行了反爬虫的处理,如JS加密,Ajax加密,反Debug等方法,通过请求获取数据和页面展示的内容完全不同,这时候就用到Selenium技术,来模拟浏览器的操作,然后获取数据。本文以一个简单的小例子,简述Python搭配Tkinter和Selenium进行浏览器的模拟操作,仅供学习分享使用,如有不足之处,还请指正。 什么是Selenium? Selenium是一个用于Web应用程序测试的工具,Selenium测试直接运行在浏览器中,就像真正的用户在
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:253952
    • 提供者:weixin_38670297
  1. python selenium 查找隐藏元素 自动播放视频功能

  2. 在使用python做爬虫的过程中,有些页面的的部分数据是通过js异步加载的,js调用接口的请求中有时还带有些加密的参数很难破解无法使用requests这样的包直接爬取数据,因此需要借助seleniu来完成js的自动加载。 通过selenium 模拟浏览器的真是操作来获取页面中的所有请求,并且可以查找到一下页面上一些隐藏的元素,这些元素在html源码中无法看到,并且和能通过xpath和正则来捕获,因此需要使用selenium来查找隐藏元素,例如视频网站的播放按钮 代码如下 import time
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:157696
    • 提供者:weixin_38584731