Python--Scrapy爬虫获取简书作者ID的全部文章列表数据

最近Python大火,为了跟上时代,试着自学了下。Scrapy是一个高级的Python爬虫框架,它不仅包含了爬虫的特性,还可以方便的将爬虫数据保存到csv、json等文件中。

今天我们就试着用Scrapy来爬取简书某位作者的全部文章。
在本篇教程中,我们假定您已经安装好Scrapy。 如若不然,请参考 安装指南

1.创建项目

在开始爬取之前,我们必须创建一个新的Scrapy项目,我这里命名为jianshu_article。打开Mac终端,cd到你打算存储代码的目录中,运行下列命令:

  //Mac终端运行如下命令:
  scrapy startproject jianshu_article

2.创建爬虫程序

  //cd到上面创建的文件目录
  cd jianshu_article
  //创建爬虫程序
  scrapy genspider jianshu jianshu.com
  /*
  文件说明:
    scrapy.cfg  项目的配置信息,主要为Scrapy命令行工具提供一个基础的配置信息。(真正爬虫相关的配置信息在settings.py文件中)
    items.py    设置数据存储模型,用于结构化数据,如:Django的Model
    pipelines    数据处理行为,如:一般结构化的数据持久化
    settings.py 配置文件,如:USER_AGENT(模拟浏览器,应对网站反爬),递归的层数、并发数,延迟下载等
    spiders      爬虫目录,如:创建文件,编写爬虫规则
  */

为了方便编写程序,我们用Pycharm打开项目,执行完上面的命令程序会自动创建目录及文件,其中生成了一个jianshu.py的文件,后面我们主要逻辑都将写在此文件中。


jianshu.py

3.设置数据模型

双击items.py文件。
找到你想爬取的简书作者首页,如我自己的首页https://www.jianshu.com/u/6b14223f1b58,用谷歌浏览器打开,空白处鼠标右击,单击“检查”进入控制台开发者模式:

打开控制台.png

通过分析网页源码,我们大概需要这些内容:

# -*- coding: utf-8 -*-

# Define here the models for your scraped items
#
# See documentation in:
# https://doc.scrapy.org/en/latest/topics/items.html

import scrapy


class JianshuArticalItem(scrapy.Item):
    avatar = scrapy.Field()     #头像
    nickname = scrapy.Field()      #昵称
    time = scrapy.Field()   #发表时间
    wrap_img = scrapy.Field()   #封面(缺省值)
    title = scrapy.Field()     #标题
    abstract = scrapy.Field()   #正文部分显示
    read = scrapy.Field()   #查看人数
    comments = scrapy.Field()   #评论数
    like = scrapy.Field()   #喜欢(点赞)
    detail = scrapy.Field()   #文章详情url
    pass

如此数据模型就创建好了,后面运行爬虫的时候,我得到的数据将存进模型对应的位置。

4.分析网页源码,编写爬虫

因为本人比较懒很少写文章,文章数比较少,为了呈现分页的效果,我在简书选取了一位作者CC老师_MissCC的主页进行爬取。
我们通过分析URL可以找到一些特征:
作者的URL为:https://www.jianshu.com/u/ + 作者ID:

作者主页URL.png

文章的URL为:https://www.jianshu.com/p/ + 文章ID:

文章URL.png

虽然我们在浏览器直接打开作者的URL,鼠标滚轮往下滚动会动态加载下一页直至最后一篇文章URL还是保持不变。但是作为Scrapy爬虫貌似只能拿到第一页,那么如何做到呢?以我个人多年的开发经验我尝试在URL后面拼接一个"page"参数加上页数,果不其然,能请求到不同的数据。


拼接参数page拿到分页数据.png

找到这些规律,我们就可以通过分析HTML源码,拿到我们想要的数据了。
首先,我们回到jianshu.py这个文件,导入模型:

  //从项目名 jianshu_article的文件items.py导入JianshuArticleItem类
  from jianshu_article.items import JianshuArticleItem

设置必要参数发起首次请求:

 # -*- coding: utf-8 -*-
import scrapy
from jianshu_article.items import JianshuArticleItem


class JianshuSpider(scrapy.Spider):
    name = 'jianshu'
    allowed_domains = ['jianshu.com']

    user_id = "1b4c832fb2ca"
    url = "https://www.jianshu.com/u/{0}?page=1".format(user_id)
    start_urls = [
        url,
    ]


    def parse(self, response):
        #用户头像
        c = response.xpath('//div[@class="main-top"]/a[@class="avatar"]/img/@src').extract_first()
        print(c)
        pass

至此终端运行命令scrapy crawl jianshu,理论上可以打印网页内容。实则不然,没有请求到任何数据,终端会打印一些日志信息:


日志.png

不难发现,报了403的问题和HTTP status code is not handled or not allowed的问题,导致"Closing spider (finished)"爬虫终止。通过万能百度,我知道大概是网站做了一些相应的反爬虫的措施导致的。对症下药,我们只需要在settings.py,做一些相应修改就可以了:

```
User_Agent中文名为用户代理,简称 UA,它是一个特殊字符串头,使得服务器能够识别客户使用的
操作系统及版本、CPU 类型、浏览器及版本、浏览器渲染引擎、浏览器语言、浏览器插件等。
通俗点讲,我们配置这个字段的目的就是为了伪装成浏览器打开网页,达到骗过目标网站的监测。
```
USER_AGENT = 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Safari/537.36'
CONCURRENT_REQUESTS = 1 #并发数
DOWNLOAD_DELAY = 5  #为了防止IP被封,我们5秒请求一次
HTTPERROR_ALLOWED_CODES = [403] #上面报的是403,就把403加入

#默认为True,就是要遵守robots.txt 的规则,这里我们改为False
ROBOTSTXT_OBEY = False

做了相应的修改,我们再次执行爬虫命令:scrapy crawl jianshu ,看日志打印获取到头像。


获取到头像.png

既然网页数据能爬取成功,我们后面要做的只是分析网页源码了,下面就不一一去分析了,体力活。当然在此之前你要对xpath有一定的了解。

下面引用Scrapy中文官网介绍:
从网页中提取数据有很多方法。Scrapy使用了一种基于 XPathCSS 表达式机制: Scrapy Selectors。 关于selector和其他提取机制的信息请参考 Selector文档

这里给出XPath表达式的例子及对应的含义:

  • /html/head/title: 选择HTML文档中 <head> 标签内的 <title> 元素
  • /html/head/title/text(): 选择上面提到的 <title> 元素的文字
  • //td: 选择所有的 <td> 元素
  • //div[@class="mine"]: 选择所有具有 class="mine" 属性的 div 元素

上边仅仅是几个简单的XPath例子,XPath实际上要比这远远强大的多。 如果您想了解的更多,我们推荐 这篇XPath教程
通过上面的介绍,相信你可以做接下来的爬虫工作了,下面贴上jianshu.py的全部代码,以供参考:

# -*- coding: utf-8 -*-
import scrapy
from jianshu_article.items import JianshuArticleItem


class JianshuSpider(scrapy.Spider):
    name = 'jianshu'
    allowed_domains = ['jianshu.com']
    user_id = "1b4c832fb2ca" #替换此用户ID可获取你需要的数据,或者放开下一行的注释
    #user_id = input('请输入作者id:\n')
    url = "https://www.jianshu.com/u/{0}?page=1".format(user_id)
    start_urls = [
        url,
    ]

    def parse(self, response):
        # [关注,粉丝,文章]
        a = response.xpath('//div[@class="main-top"]/div[@class="info"]/ul/li/div/a/p/text()').extract()
        print(a)
        # [字数,收获喜欢]
        b = response.xpath('//div[@class="main-top"]/div[@class="info"]/ul/li/div/p/text()').extract()
        print(b)
        # 大头像
        c = response.xpath('//div[@class="main-top"]/a[@class="avatar"]/img/@src').extract_first()
        print(c)
        # 用户名
        d = response.xpath('//div[@class="main-top"]/div[@class="title"]/a/text()').extract_first()
        print(d)
        # 性别
        e = response.xpath('//div[@class="main-top"]/div[@class="title"]/i/@class').extract_first()
        print(e)

        # 获取文章总数,计算页数。(简书网站默认每页是9组数据)
        temp = int(a[2])
        if (temp % 9 > 0):
            count = temp // 9 + 1
        else:
            count = temp // 9
        print("总共" + str(count) + "页")

        base_url = "https://www.jianshu.com/u/{0}?page={1}"
        for i in range(1, count + 1):
            i = count + 1 - i  #理论上正序1~count就是按顺序获取的,但是获取的数据是倒置的,所以我们获取count~1的数据,得到的数组就是按照网页形式1~count页码排序的了
            yield scrapy.Request(base_url.format(self.user_id, i), dont_filter=True, callback=self.parse_page)

    #迭代返回每页的内容
    def parse_page(self, response):
        for sel in response.xpath('//div[@id="list-container"]/ul/li'):
            item = JianshuArticleItem()
            item['wrap_img'] = sel.xpath('a/img/@src').extract_first()
            item['avatar'] = sel.xpath('div//a[@class="avatar"]/img/@src').extract_first()
            item['nickname'] = sel.xpath('div//a[@class="nickname"]/text()').extract_first()
            item['time'] = sel.xpath('div//span[@class="time"]/@data-shared-at').extract_first()
            item['title'] = sel.xpath('div/a[@class="title"]/text()').extract_first()
            item['abstract'] = sel.xpath('div/p[@class="abstract"]/text()').extract_first()
            item['read'] = sel.xpath('div/div[@class="meta"]/a[1]/text()').extract()[1]
            item['comments'] = sel.xpath('div/div[@class="meta"]/a[2]/text()').extract()[1]
            item['like'] = sel.xpath('div/div[@class="meta"]/span/text()').extract_first()
            item['detail'] = sel.xpath('div/a[@class="title"]/@href').extract_first()
            yield item

至此爬虫代码编写完毕,如果要把获取的数据保存下来,你可以终端执行如下命令:

/*
此命令用于把爬取的数据保存为json文件格式,当然你也可以保存为别的文件格式。
Scrapy官方列出的文件格式有如下几种:('json', 'jsonlines', 'jl', 'csv', 'xml', 'marshal', 'pickle')。
温馨提示:如果要再次爬取,最好换一个文件名或者清空数据再爬取,因为第二还是写入上一个文件,数据不会覆盖,
会堆积在上次获取的下面,造成json文件格式报错。
*/
scrapy crawl jianshu -o data.json

程序执行完后,我们可以在文件目录看到新生成的data.json文件,双击可以看到我们要获取的全部数据:

执行爬虫获取到的数据.png

json解析数据跟网站上的完全吻合.png

github地址:https://github.com/leesonp/jianshu_article
至此以上就是本文的全部内容,谢谢阅读。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,839评论 6 482
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,543评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 153,116评论 0 344
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,371评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,384评论 5 374
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,111评论 1 285
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,416评论 3 400
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,053评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,558评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,007评论 2 325
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,117评论 1 334
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,756评论 4 324
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,324评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,315评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,539评论 1 262
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,578评论 2 355
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,877评论 2 345

推荐阅读更多精彩内容