您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 一个简单的获取URL 数据方法,附文档代码

  2. 一个简单的获取URL 数据方法一个简单的获取URL 数据方法
  3. 所属分类:其它

    • 发布日期:2009-10-22
    • 文件大小:1kb
    • 提供者:jianxiaoji
  1. 简单的网页内容采集器

  2. 预览图片见:http://www.cnblogs.com/xxpyeippx/archive/2008/03/31/1131211.html运行环境windows nt/xp/2003 or above.net Framework 1.1SqlServer 2000 开发环境 VS 2003目的学习了网络编程,总要做点什么东西才好。于是想到要做一个网页内容采集器。作者主页: http://www.fltek.com.cn使用方式测试数据采用自cnBlog。见下图用户首先填写“起始网页”,即从哪
  3. 所属分类:C#

    • 发布日期:2012-04-09
    • 文件大小:51kb
    • 提供者:jonny_jun_gao
  1. JS获取URL中参数值(QueryString)的4种方法分享

  2. 今天碰到要在一个页面获取另外一个页面url传过来的参数,一开始很本能的想到了用 split("?")这样一步步的分解出需要的参数。后来想了一下,肯定会有更加简单的方法的!所以在网上找到了几个很又简单实用的方法,mark下。
  3. 所属分类:其它

    • 发布日期:2020-10-26
    • 文件大小:37kb
    • 提供者:weixin_38584642
  1. php获取url参数方法总结

  2. 本文实例讲述了php获取url参数方法。分享给大家供大家参考。具体如下: 在php中获取url中参数的方法有很多种,其中最简单的就直接使用parse_url函数了,他可以很方便快速的自动解析url参数与值并保存期到对应的数组中,其它的一种方法基本都是正则表达式来操作了。 parse_url函数 我们先来了解一下parse_url函数,官方解决 说明: mixed parse_url ( string $url [, int $component = -1 ] ) 本函数解析一个 URL 并返回一
  3. 所属分类:其它

    • 发布日期:2020-12-18
    • 文件大小:42kb
    • 提供者:weixin_38550459
  1. PHP一个简单的无需刷新爬虫

  2. 由于只是一个小示例,所以过程化简单写了,小菜随便参考,大神大可点解 <?php //设置最大执行时间 set_time_limit(0); function getHtml($url){ // 1. 初始化 $ch = curl_init(); // 2. 设置选项,包括URL curl_setopt($ch,CURLOPT_URL,$url); curl_setopt($ch,CURLOPT_RETURNTRANSFER,1); curl_setopt
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:49kb
    • 提供者:weixin_38736529
  1. 一个简单的node.js界面实现方法

  2. 最近要写一个工具界面整合项目的功能属性,方便其他部门的人进行编辑,有点类似后台。会有部分数据上的交互。于是学习了下node.js后端的知识。 源码如下: // filename:myServer.js // a simple http server var fs = require('fs'), url = require('url'), path = require('path'), http = require('http'); //从命令行参数获取root目录,默认是当前目录 v
  3. 所属分类:其它

    • 发布日期:2021-01-02
    • 文件大小:67kb
    • 提供者:weixin_38654915
  1. TPCrawler:TPCrawler是一个开放源代码PHP工具,可以完全自主地镜像ThePirateBay(以及其他经过简单修改的​​网站)上的磁铁URL,源URL和torrent的描述。-php source site

  2. TPCrawler – ThePirateBay反审查工具 关于 在英国ISP被迫审查ThePirateBay之后,海盗党(Pirate Party)等提供了代理访问该站点的代理,许多独立艺术家用来识别其内容; 引起我注意的是,除了该站点上某些种子的90MB备份之外,该站点没有大型镜像。 在意识到这一点之后,我注意到仅仅获取网站的全部内容是多么不切实际。 正是由于这个原因,TPCrawler诞生了。 TPCrawler是一个开放源代码PHP工具,可以完全自主地镜像ThePirateBay(以及
  3. 所属分类:其它

  1. GotensDiscBot:一个简单的Discord机器人,可以获取任何shopify网址的变体-源码

  2. shopify-variantsJS 一个简单的Discord机器人,可以获取任何shopify网址的变体 如何使用: Git克隆 // cd GotensDiscBot // npm install <----全部在命令提示符下btw使用命令'node bot.js'运行bot。 (执行此操作或其他操作之前,请在BOT.PY中插入令牌!!)将命令“ -variants {shopify url}”发送到您的机器人所在的服务器。您的机器人应在命令行中以命令输出作为响应不错的格式。
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:16kb
    • 提供者:weixin_42099858
  1. gursht:用Go语言编写的一个简单的URL缩短器-源码

  2. gursht-用GO编写的简单URL缩短器 仍然是在制品 我一直想用Golang写点东西,这是我第一个尝试的实际迷你项目。 我这样做的主要动机是为我的mutt配置获取了一个URL缩短器。 使用了URL缩短器,我也想实现这一点。其背后的主要思想是,当链接对于该术语而言太长时,将不再使用mutt的+换行。 查找在运行的应用程序的演示。随意使用它。 入门 手动构建并运行 git clone https://github.com/eyenx/gursht && cd gursht go build .
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:22kb
    • 提供者:weixin_42133969
  1. GameDB:一个简单的游戏数据库应用程序-源码

  2. 游戏数据库 一个简单的游戏数据库应用程序 介绍 GameDB是一个Android Kotlin应用程序,它显示游戏列表。该应用程序的数据源来自RAWG REST API Web服务。该应用程序使用Retorfit库和Moshi从网络获取游戏列表,以处理将返回的JSON反序列化为Kotlin数据对象的过程。 该应用程序还利用ViewModel,LiveData,带有绑定适配器的数据绑定,数据库空间,协程和Glide来通过URL加载和缓存图像。 特征 首页->显示本月前十大游戏 搜索->
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:239kb
    • 提供者:weixin_42134038
  1. Github-git-commands:简单的git备忘单-源码

  2. Github-git-命令 简单的git备忘单 回购->存储库 clone >将一个回购协议从Internet(像Github这样的远程存储库)下载到本地计算机 add ->使用Git跟踪文件和更改 commit ->将更改保存到Git中 push >将更改推送到Github(或其他网站)上的远程仓库中 pull >将更改从远程存储库下拉至本地计算机 git config –global user.name“ [名称]”->设置作者名称git confi
  3. 所属分类:其它

  1. WebCrawler:简单的WebCrawler,可查找所有唯一链接并遍历它们-源码

  2. 网络爬虫 介绍 简单的WebCrawler,可查找网页上的所有链接并将其打印到控制台。 网页上的链接必须具有以下格式,才能被视为有效 。 在浏览的网页上找到的所有链接都将添加到一个临时文件中,以进行记录保存。 该程序利用线程池分配用于请求/解析的URL 图书馆 包括的库是: node.js(14.16.0 LTS)-执行Javascr ipt代码 npm(6.14.11)-用于安装节点模块 node-worker-threads-pool-访问创建工作池以请求/解析主线程HTML主体 chee
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:18kb
    • 提供者:weixin_42165508
  1. Simplistic-RSS:这是一个非常简单的Android RSS库-源码

  2. 简化RSS 这是一个非常简单的Android RSS库。 如果存在图像,则支持提取图像的URL。 它仍然很早,但是随着更新它将继续变得更好。 用法 通过传入RSS feed的URL创建一个RssReader RssReader rssReader = new RssReader (url); 获取已从Rss feed中提取的所有项目的列表 ArrayList RssItems = rssReader . getItems(); 客制化 *如果要向Rss项添加新属性,请编辑RssItem类以
  3. 所属分类:其它

  1. assistant-simple:一个简单的示例应用程序,演示了Watson Assistant api-源码

  2. :rocket: Watson Assistant(以前称为“对话”)示例应用程序 此Node.js应用程序在一个简单的界面中演示了Watson Assistant服务,该界面参与了一系列简单的模拟银行业务任务。 您可以查看此应用程序的。 请注意,此应用程序使用 。 要访问V1应用程序的版本,可以转到 。 如果您需要有关V1 API的更多信息,则可以转到。 先决条件 注册一个。 下载 。 创建Watson Assistant服务的实例并获取您的凭据: 转到IBM Cloud Cata
  3. 所属分类:其它

  1. samba4:该程序是为实习选择过程而开发的。 要求创建一个简单的Web应用程序,您可以在其中创建“媒体”对象,获取所有对象,并根据提供的端点获取特定的对象。-源码

  2. 问题4 这是一个使用Spring框架和Maven依赖项的简单Java Web App,能够处理GET和POST请求。 该应用程序接收,存储和搜索媒体。 下载文件,解压缩,打开并在IDE(即。 使用探索API请求。 要求 添加新媒体 在邮递员中,创建一个POST请求并输入以下URL: localhost:8080/medias 选择Body ,然后选择raw和JSON作为文件类型。 通过以下方式输入媒体数据: { "id": "*insert id here*", "name":
  3. 所属分类:其它

    • 发布日期:2021-02-11
    • 文件大小:19kb
    • 提供者:weixin_42131342
  1. scraply:抓取一个简单的dom抓取器,以从任何基于html的网站获取信息并将该信息转换为JSON API-源码

  2. 报废 抓取一个简单的dom抓取工具,以使用jQuery类的语法从任何基于html的网站获取信息,并将该信息转换为JSON API 这个怎么运作? 它可以通过简单地以HCL格式定义一些macros / endpoints来工作,让魔术开始,这是一个示例: # /scraply macro scraply { // the url to scrap // we will scrap scraply github page and get information from it
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:15kb
    • 提供者:weixin_42118701
  1. deploy-ml-model:使用flask和docker将简单的机器学习模型部署到AWS ec2实例-源码

  2. 将机器学习模型用作Web服务 使用和将简单的机器学习模型作为Web服务提供服务。 入门 使用Model_training.ipynb在上训练逻辑回归模型并生成一个腌制的模型文件(iris_trained_model.pkl) 使用app.py将推理逻辑包装在Flask服务器中,以将模型用作REST Web服务: 执行命令python app.py以运行flask应用程序。 转到浏览器,然后单击URL 0.0.0.0:80以获取消息Hello World! 显示。 注意:此时可能会收到权限错
  3. 所属分类:其它

  1. android-issue-reporter:一个功能强大且简单的库,可直接从您的应用程序在GitHub上打开问题-源码

  2. android-issue-reporter 基于的 您的收件箱中充满了错误报告和来自用户的请求吗? android-issue-reporter是一个新的材料设计库,即使没有帐户,也可以将应用程序中的问题直接报告给GitHub。 演示版 Google Play上提供了一个演示应用程序: 屏幕截图 GitHub机器人 包括设备信息 演示版 相依性 android-issue-reporter在上 Gradle依赖性: repositories { maven { url '
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:875kb
    • 提供者:weixin_42134769
  1. 利用python3写一个简单的百度翻译小字典

  2. 声明:此例子为学习例子,通过百度翻译的XHR来实现的 最近在重新学习python3,尝试着利用它来抓取网页上的数据。 在用百度翻译的时候,看到 突发奇想想做一个百度小字典的玩意儿 于是开始了学习之路 首先利用浏览器的网页工具查看其工作原理是利用xhr请求来获取数据 于是我们可以 在network工具下选择xhr协议 在preview模式中找到具体的流数据(json) 在headres中我们最先注意的只有两个 就是找到Request Url和Method,很明显是https://fanyi
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:119kb
    • 提供者:weixin_38747906
  1. url-meta:一个简单的微服务,可从URL链接获取元数据-源码

  2. url-meta:一个简单的微服务,可从URL链接获取元数据
  3. 所属分类:其它

« 12 3 4 5 6 7 8 9 10 ... 29 »