最近在使用scrapy时,面临在多个机器部署的问题,如果手动将代码拷贝到每一台机器,并且在命令行启动scrapy变得很繁琐。
本次总结将介绍使用 Scrapyd + Greapy \ ScrapydWeb 完成爬虫项目部署工作,并且结合 Docker,可以式分布式部署变得很简单高效。
第(一)篇目录:
一、Scrapyd、Gerapy、ScrapydWeb 介绍
二、Scrapyd安装
三、Scrapyd使用
一、 本文用到的各模块简介。
scrapyd是一个可以运行scrapy的服务程序,它提供了一系列HTTP接口(如 http://127.0.0.1:6800/daemonstatus.json)供我们调用,让我们完成对爬虫程序的部署、启动、停止、删除。
同时,scrapyd支持 爬虫版本管理、可管理多个爬虫任务。
一个分布式爬虫管理框架。 在scrapyd服务启动基础上,gerapy弥补scrapyd纯命令行操作的缺点,它提供了一个图形界面可以使我们直观便捷的完成scrapyd的一系列操作。其相对于scrapydWeb来说更好上手,并且支持中英文。
一个针对scrapyd集群管理的web应用程序。可以提供日志可视化分析、自动打包、定时任务、邮件通知、移动端UI等功能,其相对于Gerapy来说更加强大,功能更加丰富。
这是官方提供的使用demo,有兴趣的可以进去点点。
- 其他
SpiderKeeper 也是一款开源的spider管理工具,可以方便的进行爬虫的启动,暂停,定时,同时可以查看分布式情况下所有爬虫日志,查看爬虫执行情况等功能。我没有使用到,所以本次总结暂不介绍。
二、scrapyd 的安装
1. pip安装
pip install scrapyd
2. 配置
- 修改scrapyd安装目录下的default_scrapyd.conf文件(没有就新建一个)。
因为本人使用anaconda管理python库,所以python的库文件都在anaconda目录下,default_scrapyd.conf的地址为
"D:\Anaconda\Lib\site-packages\scrapyd\default_scrapyd.conf"
内容如下
[scrapyd]
eggs_dir = eggs
logs_dir = logs
items_dir =
jobs_to_keep = 5
dbs_dir = dbs
max_proc = 0
#max_proc_per_cpu = 4 (修改前)
max_proc_per_cpu = 10
finished_to_keep = 100
poll_interval = 5.0
#bind_address = 127.0.0.1 (修改前)
bind_address = 0.0.0.0
http_port = 6800
debug = off
runner = scrapyd.runner
application = scrapyd.app.application
launcher = scrapyd.launcher.Launcher
webroot = scrapyd.website.Root
[services]
schedule.json = scrapyd.webservice.Schedule
cancel.json = scrapyd.webservice.Cancel
addversion.json = scrapyd.webservice.AddVersion
listprojects.json = scrapyd.webservice.ListProjects
listversions.json = scrapyd.webservice.ListVersions
listspiders.json = scrapyd.webservice.ListSpiders
delproject.json = scrapyd.webservice.DeleteProject
delversion.json = scrapyd.webservice.DeleteVersion
listjobs.json = scrapyd.webservice.ListJobs
daemonstatus.json = scrapyd.webservice.DaemonStatus
max_proc_per_cp 是 一个cpu上运行scrapy任务的数量,我们将其改为10.
bind_address 修改为0.0.0.0 可以让外网访问(比如本地访问服务器上的scrapyd)
三、scrapyd 的使用
* 1.打开服务
安装配置完成后,命令行输入scrapyd即可打开服务。默认是在6800端口。(我们可以使用screen、tmux、supervisor来实现进程守护,让其在后台运行。待补充。。。)
* 2.Scrapyd-Client
scrapy代码部署到scrapyd的时候,第一步是需要将代码打包成egg文件,并上传到scrapyd服务器上。Scrapyd-Client就可以完成这样的工作。
- 安装 Scrapyd-Client
pip install scrapyd-client
- 验证安装
scrapyd-deploy -h 如果有类似输出,则说明安装成功:
-
如果出现如:
则需要在 "D:\Anaconda\Scripts" (或"C:\Python37\Scripts"类似)文件夹下,增加scrapyd-deploy.bat文件,内容填充为:
@echo off
"D:\Anaconda\python.exe" "D:\Anaconda\Scripts\scrapyd-deploy" %1 %2 %3 %4 %5 %6 %7 %8 %9
(文件路径需根据实际情况修改)
验证安装成功效果:(将test项目打包)
* 3.API的使用(官网文档)
如:运行命令查看服务端状态: curl http://localhost:6800/daemonstatus.json
即可获取当前主机的scrapy任务运行情况。