pyquery爬取豆瓣读书

本任务需求:

爬取豆瓣阅读所有书籍的书名、出版社、评分、简介等相关信息。
豆瓣的网页比较干净整洁,链接很有规律

本文具体逻辑顺序:

先获取书籍类目及网址
获取每个类目所有页面的链接
获取书籍名、出版社、评分等信息
衔接前面4部分的代码。

一、获取豆瓣阅读所有类目及链接

https://book.douban.com/tag/
image.png

代码

from pyquery import PyQuery as pq
import requests

headers = {'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36'}

#这里我还是使用requests库作为网络请求库,方便定制
resp = requests.get('https://book.douban.com/tag/', headers=headers)
tags_doc = pq(resp.text)

#获取豆瓣读书标签页的标签列表,此处返回的是PyQuery对象
tags_doc = pq(url='https://book.douban.com/tag/')

#查看https://book.douban.com/tag/的html数据信息
print(tags_doc.html())
#检验发现总共有6个大类(科技、经管、生活、文化、流行文学)
#print(len(tags_doc('.tagCol')))

"""
我们要获取大类下面的小类名(如文学中包含小说、外国文学、杂文等)及小类目的链接
"""

for a in tags_doc('.tagCol').items('a'):
    print(a)
    
"""
与上面打印的a是相同的
for tag in tags_doc('.tagCol'):
    for a in pq(tag).items('a'):
        print(a)
"""

我们整理下上面的代码,写成一个专门获取小类目及链接的函数

def fetch_tags():
    """
    获取豆瓣阅读各个类名的标签名及链接
    :return: 形如[(tag_name,link),(tag_name2,link2)...]的列表
    """
    headers = {'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36'}
    # 获取豆瓣读书标签页的标签列表,此处返回的是PyQuery对象
    resp = requests.get('https://book.douban.com/tag/',headers=headers)
    
    tags_doc = pq(resp.text)
    tagnames = []
    # 获取class="tagCol"的table标签,提取table中的很多个a标签
    for tag in tags_doc('.tagCol').items('a'):
        #a标签中的href值
        #link = 'https://book.douban.com'+tag.attr('href')
        #a标签夹住的文本内容
        tag_name = tag.text()
        tagnames.append(tag_name)
    return tagnames

二、获取某个标签的书籍信息

以“小说”类书籍为例,网址是这样的

#小说第一页网址
"https://book.douban.com/tag/小说?start=0&type=T"

#小说第二页网址
"https://book.douban.com/tag/小说?start=20&type=T"

。。。#小说第n页的网址  (n-1)*20
"https://book.douban.com/tag/小说?start={num}&type=T".format(num=(n-1)*20)
image.png

代码

url = 'https://book.douban.com/tag/{tag}?start={num}&type=T'

resp = requests.get(url.format(tag='小说',num=0))

p_doc = pq(resp.text)


"""
class="paginator"的div节点
选取div中为a的直接子节点
从所有的a节点中选择最后一个a节点。
获取这个a节点的文本内容,即为总的页面数
"""
pages = p_doc('.paginator').children('a').eq(-1).text()

#获取该标签所有的页面网址
purls = []

for page in range(pages):
    purl = url.format(tag='小说',num=page*20)
    purls.append(purl)

我们将上面的代码整理为一个函数

def tag_page_urls(tag='小说'):
    """
    获取某类标签所有的网址
    :param tag: 书籍小类目名,如小说
    :return: 返回该类目所有页面的网址
    """
    headers = {'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36'}

    url = 'https://book.douban.com/tag/{tag}?start={num}&type=T'
    resp = requests.get(url.format(tag=tag, num=0),headers=headers)
    p_doc = pq(resp.text)
    
    pages = p_doc('.paginator').children('a').eq(-1).text()
    # 获取该标签所有的页面网址
    purls = []
    for page in range(int(pages)):
        purl = url.format(tag=tag, num=page * 20)
        purls.append(purl)
    return purls

三、获取每个页面中书籍的信息

获取书籍具体信息,以小说类第一页例子,想办法获取该页所有的书籍信息。以此类推,换个网址,其他的页面的书籍信息也可以获取。

purl = 'https://book.douban.com/tag/小说?start=0&type=T'

resp = requests.get(purl,headers=headers)

p_doc = pq(resp.text)

for book in p_doc.items('.info'):
    #print(type(book))  #<class 'pyquery.pyquery.PyQuery'>
    
    #找class=”info“的div
    #div的直接子节点
    #从子节点中找a标签
    #获取a标签的title属性值
    title = book.children('h2').find('a').attr('title')
    
    #出版社   获取class=”info“的div的class=”pub“的子节点的文本内容
    public = book.children('.pub').text()
    #评论数
    comments = book.find('.pl').text()
    #书籍简介  获取class=”info“的div倒数第二个子节点的文本
    description = book.children().eq(-2).text()
    print(title,public,comments,description)
image.png

整理上面的代码,封装为函数

def books_detail(purl,writer):
    """
    获取某页面所有的书籍信息
    :param purl: 豆瓣阅读某类标签的某一页面的网址
    :param writer: 这是从get_all_books_data函数中生成的writer,用来存储数据
    :return: 返回该页面所有书籍的信息
    """
    headers = {'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36'}
    resp = requests.get(purl,headers=headers)
    p_doc = pq(resp.text)
    for book in p_doc.items('.info'):
        #print(type(book))  #<class 'pyquery.pyquery.PyQuery'>
        title = book.children('h2').find('a').attr('title')
        #出版社
        public = book.children('.pub').text()
        # 评分
        rating = book.find('.rating_nums').text()
        #评论数
        comments = book.find('.pl').text()
        #书籍简介
        description = book.children().eq(-2).text()
        
        detail = (title,public,rating,comments,description)
        writer.writerow(detail)
        print(detail)

四、豆瓣阅读爬虫

获取豆瓣所有书籍信息

def get_all_books_data(filename):
    """
    开始愉快的爬数据
    :param filename: 保存数据的csv文件的文件名
    :return: 
    """
    import csv,time
    file = '{}.csv'.format(filename)
    with open(file,'a+',encoding='utf-8',newline='') as csvf:
        writer = csv.writer(csvf)
        writer.writerow(('书籍名','出版社','评论数','简述'))
        for tag in fetch_tags():

            for purl in tag_page_urls(tag=tag):
                print(purl)
                books_detail(purl=purl,writer=writer)
                time.sleep(1)
        
  get_all_books_data(filename='data')

全部代码

def fetch_tags():
    """
    获取豆瓣阅读各个类名的标签名及链接
    :return: 形如[(tag_name,link),(tag_name2,link2)...]的列表
    """
    headers = {
        'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36'}
    # 获取豆瓣读书标签页的标签列表,此处返回的是PyQuery对象
    resp = requests.get('https://book.douban.com/tag/', headers=headers)

    tags_doc = pq(resp.text)
    tagnames = []
    # 获取class="tagCol"的table标签,提取table中的很多个a标签
    for tag in tags_doc('.tagCol').items('a'):
        # a标签中的href值
        # link = 'https://book.douban.com'+tag.attr('href')
        # a标签夹住的文本内容
        tag_name = tag.text()
        tagnames.append(tag_name)
    return tagnames


def tag_page_urls(tag='小说'):
    """
    获取某类标签所有的网址
    :param tag: 书籍小类目名,如小说
    :return: 返回该类目所有页面的网址
    """
    headers = {
        'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36'}

    url = 'https://book.douban.com/tag/{tag}?start={num}&type=T'
    resp = requests.get(url.format(tag=tag, num=0), headers=headers)
    p_doc = pq(resp.text)

    pages = p_doc('.paginator').children('a').eq(-1).text()
    # 获取该标签所有的页面网址
    purls = []
    for page in range(int(pages)):
        purl = url.format(tag=tag, num=page * 20)
        purls.append(purl)
    return purls


def books_detail(purl, writer):
    """
    获取某页面所有的书籍信息
    :param purl: 豆瓣阅读某类标签的某一页面的网址
    :param writer: 这是从get_all_books_data函数中生成的writer,用来存储数据
    :return: 返回该页面所有书籍的信息
    """
    headers = {
        'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36'}
    resp = requests.get(purl, headers=headers)
    p_doc = pq(resp.text)
    for book in p_doc.items('.info'):
        # print(type(book))  #<class 'pyquery.pyquery.PyQuery'>
        title = book.children('h2').find('a').attr('title')
        # 出版社
        public = book.children('.pub').text()
        # 评分
        rating = book.find('.rating_nums').text()
        # 评论数
        comments = book.find('.pl').text()
        # 书籍简介
        description = book.children().eq(-2).text()

        detail = (title, public, rating, comments, description)
        writer.writerow(detail)
        print(detail)





def get_all_books_data(filename):
    """
    开始愉快的爬数据
    :param filename: 保存数据的csv文件的文件名
    :return:
    """
    import csv, time
    file = '{}.csv'.format(filename)
    with open(file, 'a+', encoding='utf-8', newline='') as csvf:
        writer = csv.writer(csvf)
        writer.writerow(('书籍名', '出版社', '评论数', '简述'))
        for tag in fetch_tags():

            for purl in tag_page_urls(tag=tag):
                print(purl)
                books_detail(purl=purl, writer=writer)
                time.sleep(1)


get_all_books_data(filename='data')
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,033评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,725评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,473评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,846评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,848评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,691评论 1 282
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,053评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,700评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,856评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,676评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,787评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,430评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,034评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,990评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,218评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,174评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,526评论 2 343

推荐阅读更多精彩内容