您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 自编的MSN客户端源代码

  2. 想不想做一个自己的聊天工具,什么?没钱租服务器?呵呵, 其实我们可以借助别人的服务器来设计自己的聊天工具,我首选IT业的龙头老大微软的服务器,我们只需要了解MSN的通信协议,便能打造属于自己的即时通讯聊天工具了。 我需要开发一个在公网上使用的服务器,该服务器负责为我的客户提供在线注册的功能,我得弄个域名,还得有固定IP,可我口袋空空的怎么办?嘿嘿……我又想到了微软,想到了MSN服务器可以免费借我用用,我们只要开发一个类似MSN机器人的MSN客户端软件,我的客户用他们的MSN给我的MSN机器人发
  3. 所属分类:专业指导

    • 发布日期:2009-08-14
    • 文件大小:620544
    • 提供者:fgc8586
  1. Heritrix部署直接能运行的项目

  2. Heritrix是IA的开放源代码,可扩展的,基于整个Web的,归档网络爬虫工程 Heritrix工程始于2003年初,IA的目的是开发一个特殊的爬虫,对网上的 资源进行归档,建立网络数字图书馆,在过去的6年里,IA已经建立了400TB的数据。 IA期望他们的crawler包含以下几种: 宽带爬虫:能够以更高的带宽去站点爬。 主题爬虫:集中于被选择的问题。 持续爬虫:不仅仅爬更当前的网页还负责爬日后更新的网页。 实验爬虫:对爬虫技术进行实验,以决定该爬什么,以及对不同协议的爬虫 爬行结果进行分
  3. 所属分类:Web开发

    • 发布日期:2009-11-23
    • 文件大小:19922944
    • 提供者:javasteve
  1. 个人信息管理系统Struts2 spring hibernate dwr

  2. 请下载最新的, http://download.csdn.net/source/1878200 ----------------------------------------------------------------- 个人知识管理系统 数据库:MySQL 5.0 Struts2.0 + Spring + Hibernate + DWR 对于三大框架目前还在学习阶段,做得不好的地方欢迎来mail指正yukiceo@126.com,或http://blog.csdn.net/yukice
  3. 所属分类:Java

    • 发布日期:2009-11-25
    • 文件大小:18874368
    • 提供者:YukiCEO
  1. datascraper

  2. DataScraper应用领域: 垂直搜索(Vertical Search):也称为专业搜索,高速、海量和精确抓取是定题网络爬虫DataScraper的强项,每天24小时每周7天无人值守自主调度的周期性批量抓取网页数据,加上断点续传和软件看门狗(Watch Dog),确保您高枕无忧 移动互联网:手机搜索、手机混搭(mashup)、移动社交网络、移动电子商务都离不开结构化的数据内容,DataScraper实时高效地抓取网页数据,输出富含语义元数据的XML格式的抓取结果文件,确保自动化的数据集成和
  3. 所属分类:Web开发

    • 发布日期:2009-12-19
    • 文件大小:173056
    • 提供者:tigersz
  1. Web网页抓取/页面信息提取软件包MetaSeeker组件metastudio中文版

  2. MetaSeeker是一个Web网页抓取/数据抽取/页面信息提取工具包,能够按照用户的指导,从Web页面上筛选出需要的信息,并输出含有语义结构的提取结果文件(XML文件),众所周知,Web页面显示的信息是给人阅读的,对于机器来说,是无结构的,MetaSeeker解决了一个关键问题:将无结构的Web页面信息转换成有结构的适于机器处理的信息。可以应用于专业搜索、Mashup和Web数据挖掘领域。 MetaStudio是Web页面信息结构描述工具,提供GUI界面,作为Firefox扩展(Firefo
  3. 所属分类:Web开发

    • 发布日期:2010-01-06
    • 文件大小:491520
    • 提供者:tigersz
  1. 服务器配置与容灾备份方案设计

  2. 小型门户网站在利用自身独特信息资源的同时,抓取网络其它资源,丰富自身网站信息,在提供WEB服务的同时提供FTP、MAIL和DNS服务,该方案正是基于小型门户网站进行设计,提供栏目规划、页面模板制作、信息的采集、编辑加工与多途径发布等完善的内容管理功能,不仅满足一般网站需求,同时便于网站的管理、维护和升级。同时,门户网站要求具有对外系统的接口,具备分级权限管理的要求。数据缓存功能,全面引入动态缓存功能,减少服务器资源占用,提高负载和访问速度。
  3. 所属分类:网络基础

    • 发布日期:2010-06-23
    • 文件大小:168960
    • 提供者:tyrael_liu
  1. melpa:用于最大Emacs包装回购的食谱和制造机械-源码

  2. 梅尔帕 MELPA是不断增长的package.el兼容Emacs Lisp软件包的集合,这些软件包使用简单的配方从上游源代码在我们的服务器上自动构建。 (可以将其视为甚至的服务器端版本。) 包会全天更新。 要浏览可用的软件包,请签出。 添加软件包就像将新配方作为拉取请求一样简单。 继续阅读以获取详细信息。 目录 用法 要使用MELPA信息库,您需要一个Emacs和package.el ,即。 Emacs 24.1或更高版本。 要测试TLS支持,您可以访问HTTPS URL,例如使用Mx
  3. 所属分类:其它

    • 发布日期:2021-02-08
    • 文件大小:1048576
    • 提供者:weixin_42110469
  1. pim-community-dev:[社区开发存储库]开源产品信息管理(PIM)-源码

  2. Akeneo PIM开发资料库 欢迎使用Akeneo PIM产品。 该存储库用于开发Akeneo PIM产品。 实际上,这意味着src /目录中存在Akeneo PIM源代码。 如果要基于Akeneo PIM创建新的PIM项目,请使用 如果您想为Akeneo PIM做出贡献(如果您愿意,我们将非常高兴!),则可以派生此存储库并提交拉取请求。 细化剂 乌鸦 应用技术信息 以下文档是为客户和合作伙伴设计的,提供定义运行Akeneo PIM应用程序所需的服务器并检查最终用户工作站是否与Ake
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:75497472
    • 提供者:weixin_42107374
  1. CloudFail:利用配置错误的DNS和旧数据库记录查找CloudFlare网络背后的隐藏IP-源码

  2. CloudFail CloudFail是一种战术侦察工具,旨在收集有关受Cloudflare保护的目标的足够信息,以期发现服务器的位置。 通过使用Tor屏蔽所有请求,该工具目前具有3个不同的攻击阶段。 使用DNSDumpster.com的DNS扫描配置错误。 扫描Crimeflare.com数据库。 Bruteforce扫描了2500个子域。 请随时为这个项目做贡献。 如果您有想法或改进,请提出拉取请求! 免责声明 此工具是PoC(概念验证),不能保证结果。 可以正确设置Cloudfl
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:49152
    • 提供者:weixin_42153691
  1. JRakNet:RakNet网络库的协议实现-源码

  2. JRakNet JRakNet是Java的网络库,它实现了基于UDP的协议 。 该库原本用于Minecraft服务器和客户端,但仍可以轻松用于为其他视频游戏创建游戏服务器和客户端。 您还可以阅读 协议信息 版 当前协议 10 支持的服务器协议 10 支持的客户端协议 10 笔记 始终使用最新版本的JRakNet(快照除外),包括错误修复更新,因为它们几乎总是修复主要错误,添加新功能或进行优化以使API更快地运行。 通常,派生此存储库也不是一个好主意,因为它几乎总是像前面所述的那样进行更新
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:326656
    • 提供者:weixin_42106357
  1. cinabre:专用npm存储库服务器-源码

  2. cinabre专用/缓存npm存储库服务器 该分叉旨在合并似乎已废弃的原始sinopia存储库中的有用拉取请求(上次提交时间为2015年10月)。 它允许您使用零配置的本地npm注册表。 您不必安装和复制整个CouchDB数据库。 Cinabre保留自己的小型数据库,如果那里不存在任何软件包,它将要求npmjs.org保留仅使用的那些软件包。 用例 使用私有软件包。 如果您想在公司中使用npm软件包系统的所有优点而又不将所有代码发送给公众,请使用私有软件包就像公共软件包一样容易。 有关详细
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:235520
    • 提供者:weixin_42117082
  1. 带有Web UI的分布式多用户Scrapy系统:基于Django的应用程序,允许以分布式方式创建,部署和运行Scrapy Spider-源码

  2. 带有Web UI的分布式多用户Scrapy系统 这是一个Django项目,允许用户通过Web界面创建,配置,部署和运行Scrapy Spiders。 该项目的目标是构建一个应用程序,该应用程序将允许多个用户编写自己的抓取脚本,并将其部署到一组工人中,以分布式方式进行抓取。 该应用程序允许用户通过Web界面执行以下操作: 创建一个Scrapy项目 添加/编辑/删除草率项目 添加/编辑/删除Scrapy项目管道 编辑链接生成器功能(有关更多信息,请参见下文) 编辑刮板功能(有关此内容,请参见下文
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:5242880
    • 提供者:weixin_42097208
  1. YappyGitHub:Discord的github监控机器人-源码

  2. Yappy,GitHub监控器 通过将此bot添加到您的服务器来监控github仓库,为其设置一个通道,不要错过任何事件! 信息 通过以下加入我们的Discord服务器: //discord.gg/HHqndMG 指令 前缀为G! (带空格),自定义前缀设置或提及漫游器。 实用程序: help帮助命令...是的:P invite -如何邀请机器人并设置github事件! clean -清洗在过去的100封邮件中发现机器人的消息 ping嗯... ping? 乒乓球! stats -
  3. 所属分类:其它

    • 发布日期:2021-02-02
    • 文件大小:95232
    • 提供者:weixin_42126749
  1. SafeNet:社区驱动的公共安全项目-源码

  2. 公共安全 通过LoRa WAN和实时CCTV视频流实现公共安全 科技栈 Flutter用户应用 用于位置匹配的Node.Js后端 深度多实例学习 用于动作识别的3D ResNet React.js管理仪表盘 护照认证 PR受到高度赞赏! 阅读以获取有关如何设置项目服务器的详细信息。 请阅读以获取有关如何设置项目服务器的详细信息。 阅读有关发出拉取请求的。 加入我们的,与项目维护者,指导者保持联系,并随时了解有关该项目的最新信息。 关于SafeNet 什么是SafeNet? 我们相信这
  3. 所属分类:其它

    • 发布日期:2021-02-01
    • 文件大小:11534336
    • 提供者:weixin_42131601
  1. Android4.0中由ProGuard引发的一场血案

  2. 修改Android4.0源码中的Setting,添加一项功能之后,在eng模式下编译,一切正常,遂提交代码到服务器。第二天,传来噩耗,Setting上新添加的功能无法使用,一点击则报错。上传代码之前,已经在本地编译测试过,咋会有错呢??!!管它三七二十一,操起adb logcat抓取log进行分析。不看不知道,一看吓一跳,log中显示的错误信息竟然是ClassNotFound,也就是找不到相应的类,难道我上传的时候遗漏了吗(有这种可能)?马上查看提交记录,逐个检查提交的文件,全部提交了啊!咋会出
  3. 所属分类:其它

    • 发布日期:2021-01-31
    • 文件大小:207872
    • 提供者:weixin_38530115
  1. leeroyci:Leeroy是一个自托管的,持续的集成和构建服务-源码

  2. Leeroy CI Leeroy是一个自托管的,持续的集成,构建和部署服务。 它的设计易于设置,不需要额外的操作人员即可继续运行。 它在您自己的服务器上运行,因此您可以创建所需的测试环境,精确地镜像生产,而不必信任其他任何人来保护您的源代码或最终保护带有敏感信息的数据库映像。 整合方式 目前,Leeroy在GitHub上玩得很好。 GitLab的集成是当前的WIP,在第一个发行版之前应支持BitBucket。 产品特点 自托管 带上自己的构建/测试脚本 评论GitHub拉取请求 如果HEAD的
  3. 所属分类:其它

    • 发布日期:2021-01-30
    • 文件大小:529408
    • 提供者:weixin_42119866
  1. python爬虫简单的添加代理进行访问的实现代码

  2. 在使用python对网页进行多次快速爬取的时候,访问次数过于频繁,服务器不会考虑User-Agent的信息,会直接把你视为爬虫,从而过滤掉,拒绝你的访问,在这种时候就需要设置代理,我们可以给proxies属性设置一个代理的IP地址,代码如下: import requests from lxml import etree url = https://www.ip.cn headers = {User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64;
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:72704
    • 提供者:weixin_38656297
  1. asp.net c# 抓取页面信息方法介绍

  2. 一:网页更新 我们知道,一般网页中的信息是不断翻新的,这也要求我们定期的去抓这些新信息,但是这个“定期”该怎么理解,也就是多长时间需要抓一次该页面,其实这个定期也就是页面缓存时间,在页面的缓存时间内我们再次抓取该网页是没有必要的,反而给人家服务器造成压力。 就比如说我要抓取博客园首页,首先清空页面缓存, 从Last-Modified到Expires,我们可以看到,博客园的缓存时间是2分钟,而且我还能看到当前的服务器时间Date,如果我再次 刷新页面的话,这里的Date将会变成下图中 If-Mod
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:276480
    • 提供者:weixin_38649657
  1. python爬虫之urllib,伪装,超时设置,异常处理的方法

  2. Urllib 1. Urllib.request.urlopen().read().decode() 返回一个二进制的对象,对这个对象进行read()操作,可以得到一个包含网页的二进制字符串,然后用decode()解码成html源码 2. urlretrieve() 将一个网页爬取到本地 3. urlclearup() 清除 urlretrieve()所产生的缓存 4. info() 返回一个httpMessage对象,表示远程服务器的头信息 5. getcode() 获取当前网页的状态码 20
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:66560
    • 提供者:weixin_38688906
  1. 【JavaWeb开发】Referer防盗链的详解

  2. 1. 什么是Referer? Referer 是 HTTP 请求(requset) header 的一部分,当浏览器(或者模拟浏览器行为)向web 服务器发送请求的时候,头信息里就有包含 Referer 。 比如我在www.csdn.net里点击一篇博客,那么点击这个博客,它的header信息里就有: Referer=https://www.csdn.net/ 如下图:request header有这么一行(从浏览器的开发者工具->NetWork->Header中看) 我
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:304128
    • 提供者:weixin_38713717
« 1 2 34 5 6 7 8 9 10 ... 41 »