Scrapy框架新手入门教程

Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。


image

目录

安装 测试新建工程创建spider文件(以豆瓣电影为例)架构(绿线是数据流向)运作流程(个人理解)制作步骤在item中指明爬取字段编写spider/movie.py数据存至数据库其他最后


安装

pip安装,可能会报错:

pip install Scrapy

anaconda安装,推荐:

conda install -c conda-forge scrapy

测试

scrapy
image

新建工程

scrapy startproject <工程名>

scrapy startproject douban
image

创建的目录结构

image.gif
  • **scrapy.cfg: **项目配置文件

  • **douban/: **项目python模块, 代码将从这里导入

  • **douban/items.py: **项目items文件,存要爬取的字段信息,可以插入数据库、写入txt等

  • **douban/pipelines.py: **项目管道文件,将爬取的数据进行持久化存储

  • **douban/settings.py: **项目配置文件,可以配置数据库等

  • **douban/spiders/: **放置spider的目录,也就是你要写逻辑代码的地方

  • douban/middlewares:中间件,请求和响应都将经过他,可以配置请求头、代理、cookie、会话维持等

创建spider文件(以豆瓣电影为例)

scrapy genspider <项目名> <爬取域>

cd douban
image

将在spiders文件夹下自动创建movie.py,并自动生成内容:

image

可以看出,要建立一个Spider, 你必须用scrapy.Spider类创建一个子类,并确定了三个强制的属性 和 一个方法

  • name = "" :爬虫的识别名称,必须是唯一的,在不同的爬虫必须定义不同的名字。

  • allow_domains = [] :是搜索的域名范围,也就是爬虫的约束区域,规定爬虫只爬取这个域名下的网页,不存在的URL会被忽略。

  • start_urls = () :爬取的URL元祖/列表。爬虫从这里开始抓取数据,所以,第一次下载的数据将会从这些urls开始。其他子URL将会从这些起始URL中继承性生成。

  • parse(self, response) :解析的方法,每个初始URL完成下载后将被调用,调用的时候传入从每一个URL传回的Response对象来作为唯一参数,主要作用如下:负责解析返回的网页数据(response.body),提取结构化数据(生成item);生成需要下一页的URL请求。

架构(绿线是数据流向)

image.gif
  • Scrapy Engine(引擎): 负责Spider、ItemPipeline、Downloader、Scheduler中间的通讯,信号、数据传递等。

  • Scheduler(调度器): 它负责接受引擎发送过来的Request请求,并按照一定的方式进行整理排列,入队,当引擎需要时,交还给引擎。

  • Downloader(下载器):负责下载Scrapy Engine(引擎)发送的所有Requests请求,并将其获取到的Responses交还给Scrapy Engine(引擎),由引擎交给Spider来处理,

  • Spider(爬虫):它负责处理所有Responses,从中分析提取数据,获取Item字段需要的数据,并将需要跟进的URL提交给引擎,再次进入Scheduler(调度器).

  • Item Pipeline(管道):它负责处理Spider中获取到的Item,并进行进行后期处理(详细分析、过滤、存储等)的地方。

  • Downloader Middlewares(下载中间件):你可以当作是一个可以自定义扩展下载功能的组件。

  • Spider Middlewares(Spider中间件):你可以理解为是一个可以自定扩展和操作引擎和Spider中间通信的功能组件(比如进入Spider的Responses;和从Spider出去的Requests)

运作流程(个人理解)

  • 用户编写spider并运行

  • 将第一个URL传给引擎

  • 引擎将URL对应的request传给调度器

  • 调度器将request排序入队

  • 调度器将处理好的request返回到引擎

  • 引擎将request按照下载中间件的设置传给下载器

  • 下载器执行request并获得response(如果下载失败,然后引擎告诉调度器,这个request下载失败了,你记录一下,待会儿再下载)

  • 下载器将response返回到引擎

  • 引擎将request返回到spider用户这(默认交到def parse()这个函数处理)

  • spider处理完数据后,将需要跟进的URL和要保存的item传给引擎

  • 引擎将item传给管道进行处理保存,并将URL进入下一轮循环

  • 只有当调度器中不存在任何request了,整个程序才会停止,(也就是说,对于下载失败的URL,Scrapy也会重新下载。)

制作步骤

  1. 新建项目 (scrapy startproject xxx):新建一个新的爬虫项目

  2. 明确目标 (编写items.py):明确你想要抓取的目标

  3. 制作爬虫 (spiders/xxspider.py):制作爬虫开始爬取网页

  4. 存储内容 (pipelines.py):设计管道存储爬取内容

在item中指明爬取字段

如“名称”、“评分”、“简介”

image.gif
  • Item 定义结构化数据字段,用来保存爬取到的数据,有点像 Python 中的 dict,但是提供了一些额外的保护减少错误。

  • 可以通过创建一个 scrapy.Item 类, 并且定义类型为 scrapy.Field 的类属性来定义一个 Item(可以理解成类似于 ORM 的映射关系)。

在item.py中修改为:

class DoubanItem(scrapy.Item):
image

编写spider/movie.py

1、选择目标的xpath(也可以css等其他选择器)

image

2、提取出公共部分

image.gif

3、由于豆瓣有反爬验证,因此需要加上header

def start_requests(self):
image

通过start_requests函数,对于运行后第一次访问请求,就加上了请求头。因此,start_urls其实也可以不加。

4、为了方便调试,新建spider/main.py,并写入

from scrapy.cmdline import execute

5、测试一下效果

class MovieSpider(scrapy.Spider):

运行main.py

image

要提取中间的文字,则在xpath后面再添加“/text()”

6、类似地,完善parse()函数

from ..items import DoubanItem
def parse(self, response):

7、运行main.py后,在spider/item.json里将看到爬取的数据,以Unicode字符形式。

image

8、还可以保存为其他形式,如csv、xml,只需将item.json改为item.csv等。

数据存至数据库

1、建库建表

mysql -uroot -p 
image

2、在setting.py中配置数据库连接

mysql_movie = {

3、在setting.py中将以下内容取消注释

image.gif

4、在pipelines.py中连接数据库存储数据

pip install pymysql
# -*- coding: utf-8 -*-

5、运行main.py后,查询数据库

select * from movie;
image.gif

其他

为了做一个乖爬虫,且避免面向监狱编程,建议在setting.py至少开启以下两项:

image

最后

相信你跟我一样,过完本文,对scrapy已经有了一个大致的了解。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,684评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,143评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,214评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,788评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,796评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,665评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,027评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,679评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 41,346评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,664评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,766评论 1 331
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,412评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,015评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,974评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,203评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,073评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,501评论 2 343

推荐阅读更多精彩内容