文:郑元春
人生苦短,我用Python
由于最近需要做些大数据分析的工作,所以就学习了写下爬虫了,毕竟数据才是分析的基础。如果能够得到了数据,那么你的数据挖掘或者是数据分析工作就已经成功了一半。
什么是Scrapy?
Scrapy is a fast high-level web crawling and web scraping framework, used to crawl websites and extract structured data from their pages. It can be used for a wide range of purposes, from data mining to monitoring and automated testing.
项目文档:Scrapy文档
项目Git:源码
首先,先放上Scrapy的原理图:
绿色的箭头表示的是数据的流动方向。
通过看上面的示意图,我们可以看出最主要的核心部件是Scrapy Engine
,;另外还有Scheduler
+ Downlodaer
+ Spiders
+ Item Pipeline
四个功能部件,除此之外还有自己配置的 Downloader Middleware
+Spider Middleware
两个可自由配置的拓展中间件。
1.Scrapy Engine
这是Scrapy的爬虫核心,主要负责控制系统各个部件之间的data flow,以及当特定事件发生的时候触发event。
2.Scheduler
接受engine发来的requests放入队列中,当engine要求的时候再提供给engine。
3.Downloader
负责拉取下载page并返给engine,engine之后再传递给Spiders
4.Spider
用户自行编写的代码类,这部分的用户代码主要完成解析response并提取item,或者是
跟进页面中获取的额外的link url。
Scrapy 命令
提供了两种命令方式,一种是全局的命令,不依托Scrapy项目的设置。另一种是项目命令,必须在项目的路径中执行,两者的区别就是是否需要load项目的设置(这个跟Django的命令行有点相似,实际上Scrapy的开发过程受到了Django的影响)
全局命令
startproject
settings
runspider
shell
fetch
view
version
项目命令
crawl
check
list
edit
parse
genspider
deploy
bench
创建项目
scrapy startproject tutorial(你的项目名称)
可以看出这和Django的命令一样
tutorial/
scrapy.cfg
tutorial/
__init__.py
items.py
pipelines.py
settings.py
spiders/
__init__.py
...
下面是项目的目录初始化结构,和Django的目录结构也一样。
-
scrapy.cfg
是整个项目的设置文件,用的是ini
的设置方式。 -
tutorial
是和项目一样的子目录,里面的文件就是整个项目的python源码。 -
spiders
目录是自行编码的爬虫软件,大部分的逻辑和对页面的分析都在这里面了。
一般是你startproject之后,你还要使用genspider
命令生成一个爬虫程序。
比如使用下面的命令生成一个spider程序:
scrapy genspider dmoz
这是给某个网站进行爬虫编写的逻辑代码。源码如下:
import scrapy
class DmozSpider(scrapy.Spider):
name="domz"
allowed_domains=['demo.org']
start_urls=[
"http://www.dmoz.org/Computers/Programming/Languages/Python/Books/",
"http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/"
]
def parse(self,response):
print response.url
这就是一个最简单的爬虫程序。这里的class继承了scrapy的Spider类。必须要定义的变量是name
+allowed_domains
,name是标志了这个爬虫的名称,后面如果要运行爬虫程序的话需要使用这个name的值进行启动,另外一个allowed_domains则是定义了你爬取的域名,如果是爬虫在构造Request的时候那么需要检查URL是否在这个域名下,如果是不在这个域名中的URL就不会爬取。
至于start_urls
则是指定你的爬虫需要从哪里开始爬取,相当于初始的入口。
还有一个parse函数,这个是默认的callback函数,也就是爬虫抓取了start_urls里面的网页之后,然后download完成之后需要通过这个默认的函数进行页面的解析(爬取你敢兴趣的数据)
这里除了name和allowed_domains是不能更改的,其他的都可以通过其他的方式进行改写(定制)
下面是基类Spider的源码,看下就知道你的爬虫代码为什么这么写了,当然这只是最简单的爬虫,就爬取了两个页面,然后只对爬取的页面输出页面url
有的教程上面写的是继承自BaseSpider
,新版中已经改成了Spider类,并且在源码中声明了已经丢弃了BaseSpider的用法,将BaseSpider指到了Spider类上。
主要看的是name和start_urls的使用和生成上。还有parse需要在你的类中实现。
上面只是最简单的爬虫程序,还没涉及到item和pipeline的使用,在命令行中运行下面的指令,就可以启动爬虫程序并开始执行了。
scrapy crawl domz
这里crawl后面的参数就是你在你的子类中写的name的值。