airbnb房源详情数据采集——bs4&selenium

airbnb

有朋友要爬airbnb国内各大城市房源数据写论文,正好有空闲时间,所以就写了下,详情页用的是JS加载所以在获取详情页的时候采用了selenium模块,最下面代码展示了selenium获取加载后网页结构的写法,有兴趣的往下拉。

在搜索栏输入成时候,出现以下url,所以将需要的城市写成列表添加进红框位置即可切换城市



将该页面往下拉,翻页标签,获取翻页标签内的数字,并使用max函数获取的最大值,这样就得到了最大页面的值



打开chrome分析html,如下图发现每个房源的href,这样通过城市循环+翻页循环+主页和href的拼接,我们就获取到所有城市的所有房源详情的url
获取详情页的url

访问这些详情url发现是用JS加载进来的,所以这里我们需要用到selenium+phantomjs去模拟浏览的形式去获取加载后的HTML,这里有个小技巧如果使用selenium获取加载后的HTML速度较慢,所以将加载完毕后的HTML保存到本地,用本地去调试抓取详情页。

分析HTML后,发现需要的详情信息在div#details里,其中通过div.col-md-9还分为几个信息块,这些信息块不是每个url都会展示,所以需要通过.about-this-listing-section-title去判断前面的块标签,再选取相应的数据抽取策略(下图是HTML标签特征)


HTML标签特征

好了,简单的分析就到这详细具体请看下面代码

import requests
from bs4 import BeautifulSoup
from selenium import webdriver
from selenium.webdriver.common.desired_capabilities import DesiredCapabilities

headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) \
        AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36",
    "Connection": "keep-alive",
    "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8",
    "Accept-Language": "zh-CN,zh;q=0.8"
}
city_tuple = 'Shanghai', 'beijing', 'chengdu', 'chongqing', \
             'hangzhou', 'guangzhou', 'nanjing', 'suzhou', \
             'xian', 'qingdao'
for city_name in city_tuple:
    city_url = 'https://zh.airbnb.com/s/{}--China?cdn_cn=1&s_tag=Ic3cziVn&allow_override%5B%5D='.format(city_name)
    response = requests.get(city_url, headers=headers)
    # print(response.text)
    soup = BeautifulSoup(response.content, 'lxml')
    soup.encode('utf-8')
    # print(soup)
    info_area = soup.select('div.cardGrid_o1rkka div a')
    href_list = [_.get("href") for _ in info_area]
    # print(href_list)
    all_room_info_url_list = ['https://zh.airbnb.com/' + _ for _ in href_list]

    page_num_list = soup.select('div > ul.buttonList_11hau3k > li')
    max_page = max([int(_.get_text().strip()) for _ in page_num_list if _.get_text().strip().isdigit()])
    # print(max_page)
    for pg in range(1, max_page):
        city_url_pg = city_url + '& section_offset = {}'.format(pg)
        response = requests.get(city_url_pg, headers=headers)
        info_area = soup.select('div.cardGrid_o1rkka div a')
        href_list = [_.get("href") for _ in info_area]
        room_info_url_list = ['https://zh.airbnb.com/' + _ for _ in href_list]
        all_room_info_url_list.extend(room_info_url_list)
    # 城市及该城市下所有url
    print(city_name, all_room_info_url_list)

    # 详情页
    for info_url in all_room_info_url_list:
        print('详情页url', info_url)
        selenium_ua = headers["User-Agent"]
        options = dict(DesiredCapabilities.PHANTOMJS)
        options["phantomjs.page.settings.userAgent"] = selenium_ua
        browser = webdriver.PhantomJS(desired_capabilities=options)
        browser.get(info_url)
        browser.implicitly_wait(60)
        soup = BeautifulSoup(browser.page_source, 'lxml')
        browser.close()

        room_sorce_list = soup.select('div#details div.col-md-9')
        # print(len(room_sorce_list))

        # 评分
        star_rate = soup.select_one('div.star-rating')
        if star_rate is not None:
            star_rate = star_rate.get('content')
        print(star_rate)
        # 每日价格
        price = soup.select_one('span#book-it-price-string')
        if price is not None:
            price = price.get_text()
        print(price)

        section_title_list = [_.get_text() for _ in soup.select('.about-this-listing-section-title')]
        #       # 取出披露的项目列表
        # print(section_title_list)

        for idx_num, idx_title in enumerate(section_title_list):
            print(idx_num, idx_title)
            if idx_title == '商务差旅':
                for i in room_sorce_list[idx_num].select('span > span'):
                    # 商务差旅
                    print(i.get_text())
            if idx_title == '房源':
                for i in room_sorce_list[idx_num].select('div.bottom-spacing-2'):
                    # 房源信息
                    print(i.get_text())
            elif idx_title == '便利设施':
                print('**可使用设施**')
                for i in room_sorce_list[idx_num].select('strong'):
                    # 可使用设施
                    print(i.get_text())
                print('**不可使用设施**')
                for i in room_sorce_list[idx_num].select('del'):
                    # 不可使用设施
                    print(i.get_text())
            elif idx_title == '收费相关' or idx_title == '相关收费':
                for i in room_sorce_list[idx_num].select('div.bottom-spacing-2'):
                    # 收费相关
                    print(i.get_text())
            elif idx_title == '床位安排':
                for i in room_sorce_list[idx_num].select('div.text-muted'):
                    # 床位安排
                    print(i.get_text())
            elif idx_title == '《房屋守则》':
                for i in room_sorce_list[idx_num].select('div.col-sm-12'):
                    # 《房屋守则》
                    print(i.get_text())
            elif idx_title == '预订取消政策':
                for i in room_sorce_list[idx_num].select('p'):
                    # 预订取消政策
                    print(i.get_text())
            elif idx_title == '安全设施':
                for i in room_sorce_list[idx_num].select('span'):
                    # 安全设施
                    print(i.get_text())
            elif idx_title == '可订状态':
                for i in room_sorce_list[idx_num].select('div.bottom-spacing-2')[:-1]:
                    # 可订状态
                    print(i.get_text())
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,968评论 6 482
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,601评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 153,220评论 0 344
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,416评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,425评论 5 374
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,144评论 1 285
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,432评论 3 401
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,088评论 0 261
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,586评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,028评论 2 325
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,137评论 1 334
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,783评论 4 324
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,343评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,333评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,559评论 1 262
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,595评论 2 355
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,901评论 2 345

推荐阅读更多精彩内容

  • 问答题47 /72 常见浏览器兼容性问题与解决方案? 参考答案 (1)浏览器兼容问题一:不同浏览器的标签默认的外补...
    _Yfling阅读 13,728评论 1 92
  • Spring Cloud为开发人员提供了快速构建分布式系统中一些常见模式的工具(例如配置管理,服务发现,断路器,智...
    卡卡罗2017阅读 134,601评论 18 139
  • 发现 关注 消息 iOS 第三方库、插件、知名博客总结 作者大灰狼的小绵羊哥哥关注 2017.06.26 09:4...
    肇东周阅读 12,029评论 4 62
  • Android 自定义View的各种姿势1 Activity的显示之ViewRootImpl详解 Activity...
    passiontim阅读 171,520评论 25 707
  • 一 沿着红石峡的台阶 一级一级蜿蜒下沉 亿万年的岩层 凝固成怀春的红颜 穿过狭窄的隧道 碧绿的流水跳过小桥 水中小...
    灵感先生gary阅读 371评论 0 0