scrapy抓取成都房价信息

最近在学习scrapy爬虫,正好最近成都房价涨的厉害,于是想着去网上抓抓成都最近的房价情况,顺便了解一下,毕竟咱是成都人,得看看这成都的房子我以后买的起不~


话不多说,进入正题:

任务

抓取链家网(成都)的所有新房以及二手房价格、位置相关信息。

实验流程

1.确定抓取目标.
2.制定抓取规则.
3.'编写/调试'抓取规则.
4.获得抓取数据

1.确定抓取目标

1.1新房抓取目标

Paste_Image.png

我们看到在成都楼盘列表页面,有楼盘名字、均价(每平方)和所属行政区,非常好,这正是我们想要抓取的内容!
于是确定目标:
抓取成都新房的所有楼盘名称、均价信息、所属行政区和URL信息。

1.2二手房抓取规则

我们来到二手房的列表页面,并且点击进入二手房详情页面,发现网站所展示的内容就比新房的内容的多得多了,这样我们也能抓取更多的数据了!在这里,我决定在二手房页面抓取二手房地址、总价、每平米价、面积、所属行政区域和URL信息。

2.制定抓取规则

2.1新房抓取规则

由于新房的信息直接在新房列表网页上就能直接抓取,所以只需要在新房列表网页分析html结构找到我们想要的数据即可。

Paste_Image.png

对于均价来说,我们所需要的信息在 **//div[@class='average']/span/text() **

Paste_Image.png

对于楼盘名称来说,我们所需要的信息在 //div[@class='col-1']/h2/a/text()
当然了,我们所需要的URL也在 //div[@class='col-1']/h2/a/@href

Paste_Image.png

对于行政区来说,所需要的信息在 //div[@class='where']/span/text(),当然了,我们还得使用正则将所属行政区匹配出来

如何抓取所有的新房信息呢?我们利用下一页来循环

Paste_Image.png

2.2二手房抓取规则

抓取规则和新房抓取规则大同小异,不过这里有一点小小的区别是我们需要利用二手房列表页面抓取到的URL,进入二手房详情页抓取信息,不过这一点我们将在代码实现中讲到,在这儿先按住不表,还是继续分析html结构。


小区名称在 div[@class='communityName']/a[@class='info']/text()

房总价在 div[@class='price ']/span[@class='total']/text()
每平方价在 div[@class='price ']/div[@class='text']/div/span/text() ,当然这里我们还是得用正则把两个引号给弄掉~


所属行政区在 div[@class='areaName']/span[@class='info']/a/text()的第一个text


面积在 div[@class='houseInfo']/div[@class='area']/div[@class='mainInfo']/text()

当然了,对于循环获得所有信息来说,我们还是用网站的“下一页”来做。

3.'编写/调试'抓取规则

为了让调试爬虫的粒度尽量的小,我将编写和调试模块糅合在一起进行.


3.1'编写/调试'新房抓取规则

首先我们得定义一个item:

class NewHoseItem(scrapy.Item):
    name = scrapy.Field()
    average = scrapy.Field()
    district = scrapy.Field()
    URL = scrapy.Field()

然后我们尝试抓取一个新房列表页面下的所需数据吧~

import scrapy
from fangjia.items import NewHouseItem

class NewsHouseSpider(scrapy.Spider):
    name = "new"
    start_urls = [
        "http://cd.fang.lianjia.com/loupan/pg1/",
    ]

    def parse(self, response):
        for href in response.xpath("//div[@class='info-panel']"):
            item = NewHouseItem()
            item['name'] = href.xpath("div[@class='col-1']/h2/a/text()").extract_first()
            item['average'] = href.xpath("div[@class='col-2']/div[@class='price']/div[@class='average']/span/text()").extract_first()
            item['district'] = href.xpath("div[@class='col-1']/div[@class='where']/span/text()").extract_first().split('-')[0]
            item['URL'] = response.urljoin(href.xpath("div[@class='col-1']/h2/a/@href").extract_first())
            yield item

测试通过!
现在我们再编写一下循环的规则就ok了!

由于我们需要获取到totalpage的值和curpage的值,所以我们得对获取到的字符串稍微的处理一下,这里我们用到的是split()

    next_page = response.xpath("//div[@class='page-box house-lst-page-box']/@page-data").extract_first().split(',')[1].split(':')[1]
    next_page = int(next_page[0])+1
    total_page = int(response.xpath("//div[@class='page-box house-lst-page-box']/@page-data").extract_first().split(',')[0].split(':')[1])
    if next_page <= total_page:
        next_urls = 'pg%s/' % next_page
        next_urls = response.urljoin(next_urls)
        yield scrapy.Request(next_urls,callback = self.parse)

组装到我们的原函数里面

    import scrapy
    from fangjia.items import NewHouseItem

    class NewsHouseSpider(scrapy.Spider):
        name = "new"
        start_urls = [
            "http://cd.fang.lianjia.com/loupan/",
        ]

        def parse(self, response):
            for href in response.xpath("//div[@class='info-panel']"):
                item = NewHouseItem()
                item['name'] = href.xpath("div[@class='col-1']/h2/a/text()").extract_first()
                item['average'] = href.xpath("div[@class='col-2']/div[@class='price']/div[@class='average']/span/text()").extract_first()
                item['district'] = href.xpath("div[@class='col-1']/div[@class='where']/span/text()").extract_first().split('-')[0]
                item['URL'] = href.xpath("div[@class='col-1']/h2/a/@href").extract_first()
                yield item

            next_page = response.xpath("//div[@class='page-box house-lst-page-box']/@page-data").extract_first().split(',')[1].split(':')[1]
            next_page = int(next_page[0])+1
            total_page = int(response.xpath("//div[@class='page-box house-lst-page-box']/@page-data").extract_first().split(',')[0].split(':')[1])
            if next_page <= total_page:
                next_urls = 'pg%s/' % next_page
                next_urls = response.urljoin(next_urls)
                yield scrapy.Request(next_urls,callback = self.parse)

测试,成功!

3.2'编写/调试'二手房抓取规则

二手房抓取规则和新房差不多,所以写简单一点,其中主要说明一点是利用二手房列表页面抓取到的URL,进入二手房详情页抓取信息
先定义item:

class OldHouseItem(scrapy.Item):
    name = scrapy.Field()
    total = scrapy.Field()
    average = scrapy.Field()
    size = scrapy.Field()
    district = scrapy.Field()
    URL = scrapy.Field()

当然了,我们还是先写出一个二手房列表页面的抓取规则,其中,得利用抓取到的URL再进入二手房详情页进行抓取。

编写爬虫:

import scrapy
from fangjia.items import OldHouseItem

class OldsHouseSpider(scrapy.Spider):
    name = "old"
    start_urls = [
        "http://cd.lianjia.com/ershoufang/",
    ]

    def parse(self, response):
        for href in response.xpath("//ul[@class='sellListContent']/li"):
        URL = href.xpath("div[@class='info clear']/div[@class='title']/a/@href").extract()
        yield scrapy.Request(URL, callback=self.parse_dir_contents)

    def parse_dir_contents(self, response):
        item = OldHouseItem() 
        item['name'] = response.xpath("div[@class='communityName']/a[@class='info']/text()").extract_first()
        item['total'] = response.xpath("div[@class='price ']/span[@class='total']/text()").extract_first()
        item['average'] = response.xpath("div[@class='price ']/div[@class='text']/div/span/text()").extract_first()
        item['size'] = response.xpath("div[@class='houseInfo']/div[@class='area']/div[@class='mainInfo']/text()").extract_first()
        item['district'] = response.xpath("div[@class='areaName']/span[@class='info']/a/text()").extract_first()
        item['URL'] = response
        yield item

发现有重定向:


一看,是robot的原因,于是我们进入 http://cd.lianjia.com/robots.txt 一探究竟
在robots.txt最下面看到

User-agent:*
Disallow:/

原来我们的scrapy被屏蔽了!
当然,我们还有办法,不过笔者得去吃午饭了!晚上再回来研究研究~


相关推荐
scrapy通过scrapyinghub实现24小时爬虫托管爬取
scrapy抓取学院新闻报告

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,324评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,303评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,192评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,555评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,569评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,566评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,927评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,583评论 0 257
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,827评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,590评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,669评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,365评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,941评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,928评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,159评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,880评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,399评论 2 342

推荐阅读更多精彩内容

  • Spring Cloud为开发人员提供了快速构建分布式系统中一些常见模式的工具(例如配置管理,服务发现,断路器,智...
    卡卡罗2017阅读 134,580评论 18 139
  • 1.协议是不允许定义属性和实例变量的. 2.分类在技术上可以定义属性的,通过associatedObjects来实...
    iOSDevVicky阅读 416评论 0 2
  • 全部代码如下:image.png
    CoderZb阅读 1,158评论 0 0
  • 7月的天津是个多雨的季节,每隔几天都要下上一场说大不大,说小不小的雨。喜欢下雨天,可能是因为童年的记忆里,下午天可...
    雨夜星空阅读 474评论 3 10
  • 我原本以为我永远都习惯不了福州的生活,但等我回到深圳的那一刻,我才发现,福州的生活,或者说是在大学的生活,已经成为...
    MacarenaM阅读 310评论 0 0