scrapy通过scrapyinghub实现24小时爬虫托管爬取

本文仅供学习参考作用,概不对任何事情进行负责!

前言
当我们在对网上的数据进行爬取,但是需要爬取的数据量特别大,爬取的时间特别长的时候(比如需要爬一周),我们难免会思考一个问题:我总不可能一直将电脑开着去抓取数据吧?
这个时候我们一般有两种解决方案:1.购买云服务器进行24小时的爬取.2.通过爬虫托管网站进行24小时的爬取.
本文将介绍第二种方法,通过scrapy的scrapyinghub实现24小时的爬虫托管爬取


目录
1.需求背景
2.scapyinghub介绍
3.实现流程


1.需求背景

最近学校有一门搜索引擎的课程,我们需要搭建一个自己的搜索引擎.搭建搜索引擎的过程中我们需要有数据进行填充.这个时候我们准备将中国可移动文物普查网中的所有文物数据爬取到我们手中,并对拿到的数据进行二次加工组装成属于我们自己的文物搜索引擎.由于需要爬取的文物数据很多,有23w左右,所以在本地爬取的技术路线我们放弃,并且想到了通过scrapyinghub进行爬虫托管.

2.scrapyinghub介绍

scrapyinghub地址:

https://scrapinghub.com/

Scrape Cloud是scrapy基于云的Web爬行平台,可以轻松部署抓取工具并按需扩展,无需担心服务器,监控,备份或cron作业。他帮助开发人员每月将超过20亿个网页转化为有价值的数据.


3.实现流程

3.1部署scrapy到cloud
有梯子的同学可以看官网的教程

https://helpdesk.scrapinghub.com/support/solutions/articles/22000201028-learn-scrapy-video-tutorials-

首先我们在scrapyinghub上注册一个账号并且登录到管理控制台,点击右上方的create project按钮新建一个项目


当然了,我们只是将先有的scrapy爬虫部署到云上去,所以我们选择bulid spider with scrapy

然后我们将视线转移到我们的服务器上,首先安装shub

pip install shub

安装成以后,在服务器上登录我们的scrapy cloud

shub login

提示输入API key ,我们复制命令行中出现的网址并且进入


复制其中的API key到shell中

成功!
这个时候我们就需要使用shub deploy命令将本地的scrapy上传到cloud

shub deploy


由于我们之前操作过,所以自动将projectID填入了.当然了,如果我们是第一次使用的话只需要在我们cloud的控制台的URL中找到projectID并输入到shell中即可

上传scrapy成功!


这个时候我们就可以在cloud上运行我们的spider了!在Dashborad选项卡中的右上方点击run,我们就可以愉快的选择我们的spider啦!

3.2爬取优化方案
对于23W的数据,我们在之前的初步爬取中按照当前cloud的爬取速度我们预估要24个整天才能爬完,这个速度我们显然是不能接受的.
于是我们优化爬取方案为将当前爬虫分解成10个爬虫对网站进行爬取.这种方法也有隐患:过多的爬虫会导致网站服务器压力倍增,很可能导致其网站瘫痪.
所以,考虑到这个情况,我们将爬虫的爬取时间设置成了晚上11点到早上11点.
优化过后的爬虫方案,将爬取的时间缩短为了4.8天,大大的增加了爬取的效率.

小Tips:scrapyinghub默认一个project只能同时run一个爬虫,所以如何让多个爬虫同时运行在scrapyinghub以提升爬取效率呢?我们只需要新建多个organization即可,每一个organization都可以run一个爬虫~


现在我们就有2个正在run的爬虫啦~

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,214评论 6 481
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,307评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 152,543评论 0 341
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,221评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,224评论 5 371
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,007评论 1 284
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,313评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,956评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,441评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,925评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,018评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,685评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,234评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,240评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,464评论 1 261
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,467评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,762评论 2 345

推荐阅读更多精彩内容

  • Spring Cloud为开发人员提供了快速构建分布式系统中一些常见模式的工具(例如配置管理,服务发现,断路器,智...
    卡卡罗2017阅读 134,599评论 18 139
  • scrapy学习笔记(有示例版) 我的博客 scrapy学习笔记1.使用scrapy1.1创建工程1.2创建爬虫模...
    陈思煜阅读 12,655评论 4 46
  • scrapy是python最有名的爬虫框架之一,可以很方便的进行web抓取,并且提供了很强的定制型,这里记录简单学...
    bomo阅读 2,088评论 1 11
  • 这两天摸索了下scrapy,刚看文档的时候觉得有点生无可恋,scrapy框架个人还是觉得比较难懂的,需要学习的地方...
    Treehl阅读 5,623评论 7 10
  • 累哭 蠢哭 今晚着实被自己蠢哭 怎么办 呜呜呜
    MissJaen阅读 80评论 0 0