Python爬虫 —— 携程机票数据

携程机票搜索页面

涉及内容:
1、request模拟请求
2、json解析

目标:
爬取某航线上所有航班价格信息

核心思想:
通过页面上请求数据的API接口,模拟前端请求,获取json数据并将其解析。

Step0. 寻找一个合适的方法

进入携程机票的搜索界面,随便搜索一条航线,跳转后你会发现网址一栏变成了:http://flights.ctrip.com/booking/TAO-SJW-day-1.html?DDate1=2017-10-17
很明显,你搜索的航线是TAO青岛到SJW石家庄,起飞时间2017-10-17,整理一下url的规则就是:http://flights.ctrip.com/booking/<起飞城市三字码>-<降落城市三字码>-day-1.html?DDate1=<起飞日期>

拍脑袋想出来的方法一:直接通过页面url获取html代码,然后对html进行解析,获取到所需元素。
-> 要用xpath一层层分析网页元素,一层层解析下去,好麻烦啊!
-> 机票价格是Ajax异步请求!页面html源码中没有这部分数据的!就算你有耐心用Xpath定位,也找不到哇!

拍脑袋想出来的方法二:利用selenium框架,通过webdriver操纵浏览器完成爬取
-> 可以解决方法一中动态页面获取不到源码的问题,用xpath可以定位到元素了。
-> 可是,要是想看每个航班下所有票价信息的话,还需要点N次“订票”按钮,好麻烦呀!
-> 我用selenium尝试了一下,发现如果这个航线下的航班很多,滚动条不往下拉是不会把后面的航班加载出来的呀!这可咋整呀我无法预判这条航线下有多少航班呀。每条航线都拖动滚动条3次?5次?10次?太傻了!

……出于以上种种原因
可以用的方法三:我选择直接利用ajax请求接口,模拟请求,获取json数据

Step1. 找到API的地址

打开Chrome浏览器的开发者模式,然后重新搜索一条航线。
开发者模式 -> Networks -> XHR里面有一个耗时格外长的请求!


估计就是你了!点开看一下Query String,嗯是航线信息,的确就是这个请求。获取这个请求的地址,也就是Request URL。

把Request URL后面这一大串复制出来,整理一下:

request_url = 'http://flights.ctrip.com/domesticsearch/search/SearchFirstRouteFlights?' \
                  + 'DCity1=' + dcity \       # 起飞城市三字码
                  + '&ACity1=' + acity \     # 降落城市三字码
                  + '&SearchType=S' \
                  + '&DDate1=' + ddate \    # 起飞日期
                  + '&IsNearAirportRecommond=0' \
                  + '&LogToken=8428f186c3504a6ea71158b344a502f5' \
                  + '&rk=0.1311117634227288233503' \
                  + '&CK=05F016D386A1975EFCF0F1240BA33457' \
                  + '&r=0.37113914798207880745716'

request_url后面有奇奇怪怪的四个字段,LogTokenrkCKr,但是我在页面源代码中只找到了rk的定义,没有找到另外两个值的来源。尝试了一下发现没有后面四个字段,也是可以可以获取到json数据的,因此直接忽略。

源码中找到的rk定义:&rk=' + Math.random()*10+'223600','0.31100000101726617620017');

Step2. 模拟请求

在Chrome中的Request Headers可以看到这个请求头有以下信息:

一般情况下模拟请求头首先要做的就是设置用户代理:

ctrip_header = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.78 Safari/537.36'}

有了用户代理之后,我们尝试模拟请求:

# coding:utf-8
import urllib2


ctrip_header = {'User-Agent':
                    'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.78 Safari/537.36'}

def search_flight(dcity, acity, ddate):
    request_url = 'http://flights.ctrip.com/domesticsearch/search/SearchFirstRouteFlights?' \
                + 'DCity1=' + dcity \
                + '&ACity1=' + acity \
                + '&SearchType=S' \
                + '&DDate1=' + ddate
    request = urllib2.Request(request_url, headers=ctrip_header)
    response = urllib2.urlopen(request)
    return_json = response.read()
    print return_json


if __name__ == '__main__':
    search_flight('TAO', 'SJW', '2017-10-17')

运行结果:


发现返回的json当中并没有想要的数据,这可能是我们请求的过程中缺少了某些信息导致的。
查看Request Headers中,除了User-Agent以外还有很多其他的字段,尝试将这些字段加入ctrip_header

# coding:utf-8
import urllib2


ctrip_header = {'User-Agent':
                    'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.78 Safari/537.36',
                'Host': 'flights.ctrip.com',
                'Referer': 'http://flights.ctrip.com/booking/TAO-SJW-day-1.html?DDate1=2017-10-16'}


def search_flight(dcity, acity, ddate):
    request_url = 'http://flights.ctrip.com/domesticsearch/search/SearchFirstRouteFlights?' \
                + 'DCity1=' + dcity \
                + '&ACity1=' + acity \
                + '&SearchType=S' \
                + '&DDate1=' + ddate
    request = urllib2.Request(request_url, headers=ctrip_header)
    response = urllib2.urlopen(request)
    return_json = response.read()
    print return_json

if __name__ == '__main__':
    search_flight('TAO', 'SJW', '2017-10-17')

运行结果:

成功了!我本以为需要有Cookies才能请求成功的!
还好不需要Cookies!我还不太会获取Cookies,如果一定需要的话,我只能从Chrome里强行复制一波……(捂脸逃,顺便求Cookies伪造的教学)

Step3. 解析json数据

首先我们需要将刚刚请求到json数据转换为可读的格式,可以用json.loads()这个函数将json字符串转换为可读的字典。即:

    return_data = json.loads(return_json, encoding='gbk')

注意前面运行结果可以看出,字符串存在显示不出来的情况,这是因为我使用的python2.7存在编码问题,需要进行编码转换,即encoding='gbk'

找到所需数据:

我们需要什么数据呢?
所有的航班号,及每个航班号下对应的所有价格。

刚刚我们看的是Headers里的信息,现在切到Preview里。Preview里的信息是格式化的返回json,在这里我们可以很清晰的找到我们需要的数据。

可以看到,fis是一个航班列表,每个都是一个json,包含航班信息,航班价格信息等等等
那么我们只需要提取fis列表中的一些有用的value值就好了。

    flight_list = return_data['fis']       # 下挖到航班列表的结点
    flight_nums = len(flight_list)      # 航班数
    for i in range(flight_nums):
        airline = flight_list[i]['alc']         # 航空公司
        flight_no = flight_list[i]['fn']         # 航班号
        price_list = [each['p'] for each in flight_list[i]['scs'] if each['hotel'] is None]     # 非飞宿产品价格

运行结果:

完整代码:

# coding:utf-8
import urllib2
import json


ctrip_header = {'User-Agent':
                    'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.78 Safari/537.36',
                'Host': 'flights.ctrip.com',
                'Referer': 'http://flights.ctrip.com/booking/TAO-SJW-day-1.html?DDate1=2017-10-16'}


def search_flight(dcity, acity, ddate):
    request_url = 'http://flights.ctrip.com/domesticsearch/search/SearchFirstRouteFlights?' \
                + 'DCity1=' + dcity \
                + '&ACity1=' + acity \
                + '&SearchType=S' \
                + '&DDate1=' + ddate
    request = urllib2.Request(request_url, headers=ctrip_header)
    response = urllib2.urlopen(request)
    return_json = response.read()
    # print return_json
    return_data = json.loads(return_json, encoding='gbk')

    flight_list = return_data['fis']
    # print flight_list
    flight_nums = len(flight_list)
    print '共有航班:', flight_nums, '趟'
    for i in range(flight_nums):
        airline = flight_list[i]['alc']         # 航空公司
        flight_no = flight_list[i]['fn']         # 航班号
        print '携程', airline, flight_no,
        price_list = [each['p'] for each in flight_list[i]['scs'] if each['hotel'] is None]     # 非飞宿产品价格
        print price_list


if __name__ == '__main__':
    search_flight('TAO', 'SJW', '2017-10-17')

注:代码十分不规范,完全没写异常处理。近期我会努力纠正自己的习惯!

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,482评论 6 481
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,377评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 152,762评论 0 342
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,273评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,289评论 5 373
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,046评论 1 285
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,351评论 3 400
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,988评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,476评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,948评论 2 324
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,064评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,712评论 4 323
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,261评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,264评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,486评论 1 262
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,511评论 2 354
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,802评论 2 345

推荐阅读更多精彩内容

  • Spring Cloud为开发人员提供了快速构建分布式系统中一些常见模式的工具(例如配置管理,服务发现,断路器,智...
    卡卡罗2017阅读 134,599评论 18 139
  • 国家电网公司企业标准(Q/GDW)- 面向对象的用电信息数据交换协议 - 报批稿:20170802 前言: 排版 ...
    庭说阅读 10,869评论 6 13
  • iOS开发系列--网络开发 概览 大部分应用程序都或多或少会牵扯到网络开发,例如说新浪微博、微信等,这些应用本身可...
    lichengjin阅读 3,639评论 2 7
  • 1 前言 作为一名合格的数据分析师,其完整的技术知识体系必须贯穿数据获取、数据存储、数据提取、数据分析、数据挖掘、...
    whenif阅读 18,052评论 45 523
  • 1、感恩父母给予我生命。 2、感恩祖辈将我养育。 3、感恩母亲、祖母为家里的巨大付出。 4、感恩妻子一直的支持、包...
    朱晓军阅读 178评论 0 2