您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 你需要知道的16个Linux服务器监控命令

  2. 如果你想知道你的服务器正在做干什么,你就需要了解一些基本的命令,一旦你精通了这些 命令,那你就是一个 专业的 Linux 系统管理员。 有些 Linux 发行版会提供 GUI 程序来进行系统的监控,例如 SUSE Linux 就有一个非常棒 而且专业的工具 YaST,KDE 的 KDE System Guard 同样很出色。当然,要使用这些工具, 你必须在服务器跟前进行操作,而且这些 GUI 的程序占用了很多系统资源,所以说,尽管 GUI 用来做基本的服务器健康状态监测挺好,但如果你想知道真正发
  3. 所属分类:Linux

    • 发布日期:2019-07-02
    • 文件大小:462848
    • 提供者:abacaba
  1. 一个简单的完成端口(服务端-客户端)类

  2. 本文的源码使用了高级的完成端口(IOCP)技术,该技术可以有效地服务于多客户端。本文提出了一些 IOCP 编程中出现的实际问题的解 决方法,并提供了一个简单的 echo 版本的可以传输文件的客户端/服务器程序。第一个参数: Comp onKey,是一个 DWORD类型的变量。你可以传递任何你想传递的唯一值,这个值将总是同该对象绑定。正常情况下 会传递一个指向结构或类的指针,该结构或类包含了一些客户端的指定对象。在源码中,传递的是一个指向 Client context的指针 OVERLAPPED
  3. 所属分类:网管软件

    • 发布日期:2019-03-16
    • 文件大小:300032
    • 提供者:china_clear
  1. 通过Python使用saltstack生成服务器资产清单

  2. 人工去对每一台服务器的硬件信息并记录早已经过去了,无论通过脚本还是自动化工具都是可以进行一次编写到处抓取的,本文主要使用saltstack作为使用工具,然后利用其提供的APi编写所需的Python脚本
  3. 所属分类:其它

    • 发布日期:2020-09-21
    • 文件大小:281600
    • 提供者:weixin_38710127
  1. PHP中使用file_get_contents抓取网页中文乱码问题解决方法

  2. 本文实例讲述了PHP中使用file_get_contents抓取网页中文乱码问题解决方法。分享给大家供大家参考。具体方法如下: file_get_contents函数本来就是一个非常优秀的php自带本地与远程文件操作函数,它可以让我们不花吹挥之力把远程数据直接下载,但我在使用它读取网页时会碰到有些页面是乱码了,这里就来给各位总结具体的解决办法. 根据网上有朋友介绍说原因可能是服务器开了GZIP压缩,下面是用firebug查看我的网站的头信息,Gzip是开了的,请求头信息原始头信息,代码如下: 复
  3. 所属分类:其它

    • 发布日期:2020-12-18
    • 文件大小:49152
    • 提供者:weixin_38557095
  1. 详解用Python爬虫获取百度企业信用中企业基本信息

  2. 一、背景 希望根据企业名称查询其经纬度,所在的省份、城市等信息。直接将企业名称传给百度地图提供的API,得到的经纬度是非常不准确的,因此希望获取企业完整的地理位置,这样传给API后结果会更加准确。 百度企业信用提供了企业基本信息查询的功能。希望通过Python爬虫获取企业基本信息。目前已基本实现了这一需求。 本文最后会提供具体的代码。代码仅供学习参考,希望不要恶意爬取数据! 二、分析 以苏宁为例。输入“江苏苏宁”后,查询结果如下: 经过分析,这里列示的企业信息是用Javascr ipt动态
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:1048576
    • 提供者:weixin_38723373
  1. Pytho爬虫中Requests设置请求头Headers的方法

  2. 1、为什么要设置headers? 在请求网页爬取的时候,输出的text信息中会出现抱歉,无法访问等字眼,这就是禁止爬取,需要通过反爬机制去解决这个问题。 headers是解决requests请求反爬的方法之一,相当于我们进去这个网页的服务器本身,假装自己本身在爬取数据。 对反爬虫网页,可以设置一些headers信息,模拟成浏览器取访问网站 。 2、 headers在哪里找? 谷歌或者火狐浏览器,在网页面上点击:右键–>检查–>剩余按照图中显示操作,需要按Fn+F5刷新出网页来 有
  3. 所属分类:其它

    • 发布日期:2020-12-16
    • 文件大小:158720
    • 提供者:weixin_38699784
  1. Python爬虫设置代理IP的方法(爬虫技巧)

  2. 在学习Python爬虫的时候,经常会遇见所要爬取的网站采取了反爬取技术,高强度、高效率地爬取网页信息常常会给网站服务器带来巨大压力,所以同一个IP反复爬取同一个网页,就很可能被封,这里讲述一个爬虫技巧,设置代理IP。 (一)配置环境 安装requests库 安装bs4库 安装lxml库 (二)代码展示 # IP地址取自国内髙匿代理IP网站:http://www.xicidaili.com/nn/ # 仅仅爬取首页IP地址就足够一般使用 from bs4 import Beautif
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:54272
    • 提供者:weixin_38703823
  1. Python爬虫之模拟知乎登录的方法教程

  2. 前言 对于经常写爬虫的大家都知道,有些页面在登录之前是被禁止抓取的,比如知乎的话题页面就要求用户登录才能访问,而 “登录” 离不开 HTTP 中的 Cookie 技术。 登录原理 Cookie 的原理非常简单,因为 HTTP 是一种无状态的协议,因此为了在无状态的 HTTP 协议之上维护会话(session)状态,让服务器知道当前是和哪个客户在打交道,Cookie 技术出现了 ,Cookie 相当于是服务端分配给客户端的一个标识。 浏览器第一次发起 HTTP 请求时,没有携带任何 Cook
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:200704
    • 提供者:weixin_38716556
  1. paddlepaddle(飞桨) python 教学 Day2-《青春有你2》选手信息爬取–解答

  2. !!!作业说明!!! 1.请在下方提示位置,补充代码,完成《青春有你2》选手图片爬取,将爬取图片进行保存,保证代码正常运行 2.打印爬取的所有图片的绝对路径,以及爬取的图片总数,此部分已经给出代码。请在提交前,一定要保证有打印结果,如下图所示: 深度学习一般过程: 收集数据,尤其是有标签、高质量的数据是一件昂贵的工作。 爬虫的过程,就是模仿浏览器的行为,往目标站点发送请求,接收服务器的响应数据,提取需要的信息,并进行保存的过程。 Python为爬虫的实现提供了工具:requests模块、
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:752640
    • 提供者:weixin_38670297
  1. node实现的爬虫功能示例

  2. 本文实例讲述了node实现的爬虫功能。分享给大家供大家参考,具体如下: node是服务器端的语言,所以可以像python一样对网站进行爬取,下面就使用node对博客园进行爬取,得到其中所有的章节信息。 第一步: 建立crawl文件,然后npm init。 第二步: 建立crawl.js文件,一个简单的爬取整个页面的代码如下所示: var http = require(http); var url = http://www.cnblogs.com; http.get(url, function
  3. 所属分类:其它

    • 发布日期:2021-01-01
    • 文件大小:159744
    • 提供者:weixin_38556822
  1. Android开发如何防止被Fiddler抓取HTTP/HTTPS数据包

  2. Android开发过程中需要网络访问获取数据,一般都是通过HTTP/HTTPS请求服务器获取数据;      但是HTTP/HTTPS请求很容易被别人使用一些像Fiddler等抓包工具抓取信息,对数据进行分析 很容易得到请求方式、请求接口地址、请求参数、消息头部信息、请求类型等信息,以及请求响应 返回的数据信息;            获取到这些信息后,一方面可以分析数据得到想要的数据,如获取视频网站中的视频路径等, 另一方面可以模拟各种请求不断发送到服务器,这样可以不停的从服务器获取数据,还可
  3. 所属分类:其它

    • 发布日期:2021-01-03
    • 文件大小:41984
    • 提供者:weixin_38692184
  1. 微信小程序 http请求的session管理

  2. 微信小程序 http请求的session管理 作为一个开发JavaWeb应用的程序猿,都喜欢将用户登录后的用户信息(比如说用户id,用户名称)放入session中保存,之后在业务逻辑的开发中需要用到用户信息的时候就可以轻松又方便的从session中取到值。最近在开发微信小程序的时候碰到一个问题就是每次微信小程序请求的时候都会改变sessionid,这就会导致在后面的请求中取不到登录时保存在session中的用户信息,其实在前后端分离开发的时候也会碰到这个问题,后端程序员负责服务器端开发,提供接口
  3. 所属分类:其它

    • 发布日期:2021-01-03
    • 文件大小:46080
    • 提供者:weixin_38655810
  1. librarian:当您真的想要一个网页挂钩时,却是osu! Wiki仓库不是你的-源码

  2. 图书管理员 概述 一个Discord机器人,该机器人跟踪资源库的新请求请求。这是一个GitHub Web钩子,除了不是真的: 这不是GitHub网络挂钩,而是您需要托管或邀请的聊天机器人 它可以重新定位为您不拥有的另一个存储库(以及ppy/osu-wiki ) 它是有状态的(具有自己的本地数据库来解决API慢度问题) 它有延迟(在最坏的情况下,最长可能需要2分钟) 您可以使用其他命令与之交谈。有时它回答 特征 通知Discord中的审阅者有关新的相关拉取请求的信息 在Discord中固定一个拉取
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:609280
    • 提供者:weixin_42126399
  1. TravelProject:这个项目是推荐给台南特定地区的酒店和Sotre的,使用Googlmap API + web-scraping,Django + linebot进行演示-源码

  2. 旅游项目 此项目供台南特定地区的酒店和商店推荐,使用Googlmap API +网络抓取功能,Django + linebot进行演示 LineBot体系结构: 回复架构: 回复过程和函数类型: 客户端和服务器端之间的回复功能的详细信息:
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:22020096
    • 提供者:weixin_42135753
  1. WHUT_Courses_System:武汉理工大学抢课系统,有兴趣的朋友可以迁移到你们学校的选课系统,因为我们学校买回来的系统,估计大多数学校使用相同系统-源码

  2. 如有发现任何问题,可以邮件联系我 ,或者github上提交Issue。 请随时这样做。 项目描述 开发初衷 武汉理工大学每次选课都会崩溃,不必同学们整天候着浏览器等数据刷新出来,然后又不幸地发现登陆超时或服务器已经崩溃了,开发这个项目等于规模增大了选课网站的压力,但是我还是希望能够能够为部分同学提供帮助。 用户阅读 主要界面 登陆界面 选项说明: 获取课程信息 选课是否需要请求选课系统获取用户课程信息,每个用户课程信息不完全相同,某些不同专业拥有不同的专业课。 获取课程信息 如选择获取课程信息
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:23068672
    • 提供者:weixin_42122838
  1. Android4.0中由ProGuard引发的一场血案

  2. 修改Android4.0源码中的Setting,添加一项功能之后,在eng模式下编译,一切正常,遂提交代码到服务器。第二天,传来噩耗,Setting上新添加的功能无法使用,一点击则报错。上传代码之前,已经在本地编译测试过,咋会有错呢??!!管它三七二十一,操起adblogcat抓取log进行分析。不看不知道,一看吓一跳,log中显示的错误信息竟然是ClassNotFound,也就是找不到相应的类,难道我上传的时候遗漏了吗(有这种可能)?马上查看提交记录,逐个检查提交的文件,全部提交了啊!咋会出现
  3. 所属分类:其它

    • 发布日期:2021-03-02
    • 文件大小:223232
    • 提供者:weixin_38526914
  1. billy:开放国家的传统后端-源码

  2. 比利 经过近10年的服务,比利已经退休了 Billy是作为的一部分开发的一套工具,这些工具提供了一个用于抓取,存储和共享立法信息的框架。 特征: 刮板体系结构,用于刮擦法案,选票,立法者,委员会和事件。 用于数据清除和分析的实用程序脚本。 批量数据导出。 包含数据浏览器和API的服务器。
  3. 所属分类:其它

    • 发布日期:2021-03-02
    • 文件大小:214016
    • 提供者:weixin_42166623
  1. personal_cloud:一个简单的个人云空间-源码

  2. 个人云 实现一个个人云空间 1.项目要求 1.1应具备的特点 即取即用所有的资源不设统一的存储位置,或者分散地放置在每个设备上,当需要进行跨设备的共享的时候,再建立设备间的连接,进行资源的传输。某台设备一直开机,临时资源放置处,从而保证了所有设备相似的自由连接和退出云空间。 节省流量设备间的数据通讯应首先使用串联,当串联不通时,再使用公网进行通讯 安全可靠的网络云空间应对资源的声明,获取有严格的限制,保证只有个人信赖的设备查看和操作云空间。 1.2架构要求 采用CS架构,一个一台有固定公网IP的
  3. 所属分类:其它

    • 发布日期:2021-02-22
    • 文件大小:23552
    • 提供者:weixin_42101237
  1. 跨方舟聊天:可在所有方舟生存进化服务器之间进行交叉聊天,包括不和谐支持-源码

  2. 跨方聊天 要查看如何设置漫游器和设置,请查看新的页面。 在问问题或提交问题之前,请先查看页面。 在您查看Wiki和常见问题解答之后,请加入以获取支持和最新更新。 Bot的官方房东 确保检查出该机器人的官方主机 。 会员披露:如果您注册该服务,则使用此链接,CrossArkChat将收取少量佣金,而您无需支付任何额外费用。 如果您想支持我,现在可以使用下面的链接。 上面会说Dragon Coding Studios。 待办事项清单 有关更新列表,请 建于 用于处理所有Steam和RCON连
  3. 所属分类:其它

    • 发布日期:2021-02-18
    • 文件大小:473088
    • 提供者:weixin_42106299
  1. LorittaHelper:Lo Loritta支持服务器的助手bot!-源码

  2. :female_sign: Loritta助手 :female_sign: 该自动应答几乎所有的支持服务器上约Loritta问题的机器人。 :calendar: 信息 该漫游器是私有的,无法将其添加到您的服务器,但是您可以对其进行。 我们不会考虑没有用的拉取请求。 如果您需要帮助,可以在Loritta社区服务器中打电话给具有“嘟嘟声”角色的人,他们非常了解如何为您提供帮助。 :globe_showing_Americas: 贡献 您可以按照以下步骤向Loritta Helper添加新的
  3. 所属分类:其它

    • 发布日期:2021-02-09
    • 文件大小:357376
    • 提供者:weixin_42118011
« 1 23 4 5 6 7 8 9 10 ... 41 »