简书首页的坑

爬简书首页,一开始是想着用Scrapy框架比较方便一点,结果遇到了好多坑,花了好多时间解决,必须记录一下。

先贴修改完的完整代码

from scrapy.spiders import Spider
from scrapy.selector import Selector

from ..items import JianshuItem


class JianshuSpider(Spider):
    name = "jianshu_spider"

    allowed_domains = []

    start_urls = ['http://www.jianshu.com/']

    def parse(self, response):
        sel = Selector(response)

        title = sel.xpath("//div[@class='content']/a[@class='title']/text()").extract()
        author = sel.xpath("//div[@class='author']/div[@class='name']/a/text()").extract()
        post_time = sel.xpath("//div[@class='content']/div/div/span[@class='time']/@data-shared-at").extract()
        read = sel.xpath("//div[@class='content']/div[@class='meta']/a[last()-1]/text()").re(r' ([0-9]*)\n')
        comment = sel.xpath("//div[@class='content']/div[@class='meta']/a[last()]/text()").re(r' ([0-9]*)\n')
        like = sel.xpath("//div[@class='content']/div[@class='meta']/span[1]/text()").extract()

        reward = []
        div_1s = sel.xpath("//div[@class='content']/div[@class='meta']")
        for div_1 in div_1s:
            if div_1.xpath(".//span[2]/text()"):
                reward.append(div_1.xpath(".//span[2]/text()").extract()[0])
            else:
                reward.append(u'0')
        subject = []
        div_2s = sel.xpath("//div[@class='content']/div[@class='meta']")
        for div_2 in div_2s:
            if div_2.xpath(".//span[2]/text()"):
                subject.append(div_2.xpath(".//a[@class='collection-tag']/text()").extract()[0])
            else:
                subject.append(u'none')

        item = JianshuItem()

        item['title'] = [i for i in title]
        item['author'] = [i for i in author]
        item['post_time'] = [i for i in post_time]
        item['read'] = [i for i in read]
        item['comment'] = [i for i in comment]
        item['like'] = [i for i in like]
        item['reward'] = [i for i in reward]
        item['subject'] = [i for i in subject]

        yield item

坑一:打赏和收录主题
并不是所有的文章都是有收录主题和打赏的。

image.png
image.png
image.png

标准的就是第二张图片的样子,这样子我是最喜欢的。

没有打赏和收录主题的怎么办???

一开始脑子一片空白,不知道该怎么解决,就去看别人的代码,发现了人家用了循环就解决了,好,那就用循环,但是用XPath怎么实现呢?脑子一片空白,想不出来。后来想到去看Scrapy的官方文档,查到了。(这里再次印证了,官方文档是最棒的!)
怎么解决?上代码

        reward = []
        div_1s = sel.xpath("//div[@class='content']/div[@class='meta']")
        for div_1 in div_1s:
            if div_1.xpath(".//span[2]/text()"):
                reward.append(div_1.xpath(".//span[2]/text()").extract()[0])
            else:
                reward.append(u'0')
        subject = []
        div_2s = sel.xpath("//div[@class='content']/div[@class='meta']")
        for div_2 in div_2s:
            if div_2.xpath(".//span[2]/text()"):
                subject.append(div_2.xpath(".//a[@class='collection-tag']/text()").extract()[0])
            else:
                subject.append(u'none')

很简单是不是,但是没有接触过第一次解决就是无从下手,想了好久。

坑二:没有收录主题的文章,a标签会少一个!!!
先看图

image.png
image.png

其实这个问题我应该早就注意到的,还是经验太少了,掉坑里了,刚开始一直摸不着头脑到底是哪里出错了,为什么我爬出来的评论就是少一个。
分析一下第二章标准的格式,前三个a标签分别是收录的主题、阅读数和评论数,后两个span标签分别是赞数和打赏数。如果没有收录主题,那么会没有第一个a标签。

我之前的是这么写的

read = sel.xpath("//div[@class='content']/div[@class='meta']/a[2]/text()").extract()
comment = sel.xpath("//div[@class='content']/div[@class='meta']/a[3]/text()").extract()
     

改成

read = sel.xpath("//div[@class='content']/div[@class='meta']/a[last()-1]/text()").re(r' ([0-9]*)\n')
comment = sel.xpath("//div[@class='content']/div[@class='meta']/a[last()]/text()").re(r' ([0-9]*)\n')

这样子就能解决了。

坑三:格式问题

image.png
image.png

这里的数字,是由空格+数字+换行,其实很好解决,用正则表达式,可是该怎么用呢,再一次我的愚蠢支配了我,我就去百度了。后来突然想到看文档。看文档,看文档,看文档!重要的事情说三遍!

image.png
Selector.re()的方法!
然后就自己写正则表达式啊,自己还是太菜了,写出了怎么还是这么多空格换行,气死我了!就去查,最后发现了这个。
.re(r' ([0-9]*)\n')这个模式可以匹配出数字并把前面的空格和后面的换行符删掉。
好了,这就是我爬简书首页所有的心路历程了!
第一次独立的把所有的问题解决了,独立解决问题还是蛮难的!群里的小伙伴给了我一点启发哈哈哈!
通过这次练习,掌握了好多东西,至少再次面对框架的时候不会没头没脑了!
最后贴上结果吧
image.png

image.png
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,921评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,635评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,393评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,836评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,833评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,685评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,043评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,694评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,671评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,670评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,779评论 1 332
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,424评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,027评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,984评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,214评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,108评论 2 351
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,517评论 2 343

推荐阅读更多精彩内容