scrapy爬取豆瓣图书-编程

豆瓣读书主页如下:

image.png

选取其中的编程类进行数据获取,原理都类似,一步一步获取,然后回调处理

image.png

我怕们准备对其中的主要图书样本进行简单获取,选取书名、作者、评分和图片进行获取

items.py

  book_name = scrapy.Field()
    author = scrapy.Field()
    star = scrapy.Field()
    image_urls = scrapy.Field()
    images = scrapy.Field()
    image_paths = scrapy.Field()

douban_spider.py

因为起始url是https://book.douban.com/tag/编程就是当前页,所以无需再进行url获取进行回调之类的,这里对于ur的处理就只有翻页上面url的变化,用xpath对下一页的url进行获取,形成一个列表,如果存在下一页,即转发给它对应的url,回调给处理函数进行数据处理,这里因为url结构简单明了,所以类似这样的连接也可以手动进行url拼接

class DoubanSpiderSpider(scrapy.Spider):
    name = 'douban_spider'
    allowed_domains = ['book.douban.com']
    start_urls = ['https://book.douban.com/tag/编程']

    #def start_requests(self):
     #   return scrapy.Request(self.start_urls[0],callback=self.parse)

    def parse(self, response):
        book_list = response.xpath("//div[@class='article']/div[@id='subject_list']/ul/li")
        for i_item in book_list:
            douban_item = DoubanItem()
            book_name = i_item.xpath("normalize-space(.//div[@class='info']/h2/a/text())").extract_first()
            douban_item['book_name'] = "".join(book_name)
            author = i_item.xpath(".//div[@class='pub']/text()").extract_first()
            # douban_item['author'] = i_item.xpath(".//div[@class='pub']/text()").extract_first()
            douban_item['author'] = "".join(author).replace('\n','').split('/')[1]
            douban_item['star'] = i_item.xpath(".//span[@class='rating_nums']/text()").extract_first()
            douban_item['image_urls'] = i_item.xpath(".//div[@class='pic']/a/img/@src").extract()
            yield douban_item
        next_link = response.xpath("//span[@class='next']/link/@href").extract()
        print(next_link)
        if next_link:
            next_link = next_link[0]
            yield scrapy.Request("https://book.douban.com"+next_link, callback=self.parse)

图片获取

因为对于图片获取又区别于其他数据,scrapy文档对于图片处理进行了详细定义,照搬更改相应板块即可


以下为官方解释说明:

Scrapy提供了一个 item pipeline ,来下载属于某个特定项目的图片,比如,当你抓取产品时,也想把它们的图片下载到本地。
这条管道,被称作图片管道,在 ImagesPipeline 类中实现,提供了一个方便并具有额外特性的方法,来下载并本地存储图片:

  • 将所有下载的图片转换成通用的格式(JPG)和模式(RGB)
  • 避免重新下载最近已经下载过的图片
  • 缩略图生成
  • 检测图像的宽/高,确保它们满足最小限制

这个管道也会为那些当前安排好要下载的图片保留一个内部队列,并将那些到达的包含相同图片的项目连接到那个队列中。 这可以避免多次下载几个项目共享的同一个图片。
Pillow 是用来生成缩略图,并将图片归一化为JPEG/RGB格式,因此为了使用图片管道,你需要安装这个库。 Python Imaging Library (PIL) 在大多数情况下是有效的,但众所周知,在一些设置里会出现问题,因此我们推荐使用 Pillow 而不是PIL.

使用图片管道

当使用 ImagesPipeline ,典型的工作流程如下所示:

  1. 在一个爬虫里,你抓取一个项目,把其中图片的URL放入 image_urls 组内。
  2. 项目从爬虫内返回,进入项目管道。
  3. 当项目进入 ImagesPipelineimage_urls 组内的URLs将被Scrapy的调度器和下载器(这意味着调度器和下载器的中间件可以复用)安排下载,当优先级更高,会在其他页面被抓取前处理。项目会在这个特定的管道阶段保持“locker”的状态,直到完成图片的下载(或者由于某些原因未完成下载)。
  4. 当图片下载完,另一个组(images)将被更新到结构中。这个组将包含一个字典列表,其中包括下载图片的信息,比如下载路径、源抓取地址(从 image_urls 组获得)和图片的校验码。 images列表中的图片顺序将和源 image_urls 组保持一致。如果某个图片下载失败,将会记录下错误信息,图片也不会出现在 images 组中。

示例

import scrapy
from scrapy.contrib.pipeline.images import ImagesPipeline
from scrapy.exceptions import DropItem

class MyImagesPipeline(ImagesPipeline):

    def get_media_requests(self, item, info):
        for image_url in item['image_urls']:
            yield scrapy.Request(image_url)

    def item_completed(self, results, item, info):
        image_paths = [x['path'] for ok, x in results if ok]
        if not image_paths:
            raise DropItem("Item contains no images")
        item['image_paths'] = image_paths
        return item

这里将数据库对数据的存取和对图片的下载在一块处理,在设置中要注意优先级,得先获取图片。
pipelines.py

class MyImagesPipeline(ImagesPipeline):

    def get_media_requests(self, item, info):
        for image_url in item['image_urls']:
            yield scrapy.Request(image_url)

    def item_completed(self, results, item, info):
        image_paths = [x['path'] for ok, x in results if ok]
        if not image_paths:
            raise DropItem("Item contains no images")
        item['image_paths'] = image_paths

        # try:
        #     conn = pymysql.connect(host="localhost", user="root", password="299521", port=3306, db='douban')
        #     cur = conn.cursor()
        #     sql = "insert into book_home(image_path) values (%s)"
        #     i = item['image_paths']
        #     values = (i)
        #     cur.execute(sql, values)
        #     print(sql)
        # except Exception:
        #     print("Erro")
        # finally:
        #     conn.commit()
        # return item

        conn = pymysql.connect(host="localhost", user="root", password="299521", port=3306, db='douban')
        cur = conn.cursor()
        sql = "insert into book_home(book_name, author, star, image_path) values (%s, %s, %s, %s)"
        book_name = item['book_name']
        author = item['author']
        star = item['star']
        image_path = item['image_paths']
        values = (book_name, author, star, image_path)
        cur.execute(sql, values)
        # except Exception:
        # print("Error")
        # finally:
        conn.commit()
        return item

# class DoubanPipeline(object):
#     def process_item(self, item, spider):
#         conn = pymysql.connect(host="localhost", user="root", password="299521", port=3306, db='douban2')
#         cur = conn.cursor()
#         sql = "insert into book(book_name, author, star) values (%s, %s, %s)"
#         author = item['author']
#         book_name =item['book_name']
#         star = item['star']
#         # author = item['author'].extract()
#         # talk = item['talk'].extract()
#         # score = item['score'].extract()
#         # values = (bname, score, author, talk )
#         values = (book_name, author, star)
#         cur.execute(sql, values)
#         conn.commit()
#         return item

这里对于编程类图书的主页面进行了简单获取,下一篇会对详情页进行补充说明

  •    其他爬虫代码可参考github
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,839评论 6 482
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,543评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 153,116评论 0 344
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,371评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,384评论 5 374
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,111评论 1 285
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,416评论 3 400
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,053评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,558评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,007评论 2 325
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,117评论 1 334
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,756评论 4 324
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,324评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,315评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,539评论 1 262
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,578评论 2 355
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,877评论 2 345

推荐阅读更多精彩内容

  • 上一篇咱们讲解了Scrapy的工作机制和如何使用Scrapy爬取美女图片,而今天接着讲解Scrapy爬取美女图片,...
    qiye阅读 4,898评论 9 18
  • 这两天摸索了下scrapy,刚看文档的时候觉得有点生无可恋,scrapy框架个人还是觉得比较难懂的,需要学习的地方...
    Treehl阅读 5,623评论 7 10
  • 有半个月没有更新了,最近确实有点忙。先是华为的比赛,接着实验室又有项目,然后又学习了一些新的知识,所以没有更新...
    qiye阅读 9,845评论 35 87
  • 秋雨落 日渐寒 盛夏光景不复存 只待来年再相遇 雨天本身即是恩赐 配一杯热茶 人森足矣
    瑛太家的猫mio阅读 173评论 0 0
  • 茶包,泡完以后用来敷眼睛,可以消眼袋和黑眼圈,对大眼袋的人很有效,最好在起床的时候做,最好是绿茶或红茶
    b03433ba111b阅读 99评论 0 1