Ajax数据爬取实战--以拉勾网为例

写在最前面:

本文只做学习交流用,请勿恶意使用相关代码
测试代码,注意限制请求次数
测试代码,注意限制请求次数
测试代码,注意限制请求次数
重要的事情说三遍。。。


一、判断一个网站是否采用Ajax动态加载数据

  1. 网页未刷新(URL未改变),网页内容发生变化
  2. Ajax的请求一般都会带上X-Requested-With头域。
  3. 在请求列表中找到包含“Ajax.json”字符的请求
Ajax动态加载页面.png

二、爬取Ajax动态加载数据的两种方式:

  1. 直接分析ajax调用的接口,然后通过代码请求这个接口
  2. 使用selenium+driver(浏览器驱动)模拟浏览器行为获取数据

三、爬取拉勾网Python相关职位信息示例代码:

1.导入相关库

from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC

import requests
from lxml import etree
import time
import re
import csv
import random

2.解析页面,获取职位数据

def parse_detail_position(page_html):
    '''解析详情页面,返回一个职位的信息字典'''
    html = etree.HTML(page_html)
    department = html.xpath('//div[@class="position-head"]//div[@class="company"]/text()')[0].strip()
    job_name = html.xpath('//div[@class="position-head"]//span[@class="name"]/text()')[0].strip()

    salary = html.xpath('//dd[@class="job_request"]/p/span[1]/text()')[0].strip()
    city = html.xpath('//dd[@class="job_request"]/p/span[2]/text()')[0].strip()
    city = re.sub(r'[/ ]', '', city)

    work_year = html.xpath('//dd[@class="job_request"]/p/span[3]/text()')[0].strip()
    work_year = re.sub(r'[/ ]', '', work_year)

    educ = html.xpath('//dd[@class="job_request"]/p/span[4]/text()')[0].strip()
    educ = re.sub(r'[/ ]', '', educ)

    categroy = html.xpath('//dd[@class="job_request"]/p/span[5]/text()')[0].strip()

    job_request = html.xpath('//dd[@class="job_request"]/ul[@class="position-label clearfix"]//text()')
    job_request = [i.strip() for i in job_request]
    job_request = ' '.join(job_request)

    publish_time = html.xpath('//dd[@class="job_request"]/p[@class="publish_time"]/text()')[0].strip()
    publish_time = re.match(r'(.+)\xa0',publish_time).group(1)

    job_advantage = html.xpath('//div[@class="content_l fl"]//dd[@class="job-advantage"]//text()')
    job_advantage = [i.strip() for i in job_advantage]
    job_advantage = ''.join(job_advantage)

    job_bt = html.xpath('//dl[@id="job_detail"]/dd[@class="job_bt"]//text()')
    job_bt = [i.strip() for i in job_bt]
    job_bt = ''.join(job_bt)

    work_addr = html.xpath('//div[@class="content_l fl"]//div[@class="work_addr"]//text()')
    work_addr = [i.strip() for i in work_addr]
    work_addr = work_addr[: -1]
    work_addr = ''.join(work_addr)

    company_name = html.xpath('//div[@class="content_r"]//img[@class="b2"]/@alt')[0].strip()
    company_info = html.xpath('//div[@class="content_r"]//ul[@class="c_feature"]//text()')
    company_info = [i.strip() for i in company_info]
    company_info.reverse()
    company_info = ''.join(company_info)

    job = {
        'department':department,
        'job_name':job_name,
        'salary':salary,
        'city':city,
        'work_year':work_year,
        'educ':educ,
        'categroy':categroy,
        'job_request':job_request,
        'publish_time':publish_time,
        'job_advantage':job_advantage,
        'job_bt':job_bt,
        'work_addr':work_addr,
        'company_name':company_name,
        'company_info':company_info
    }

    return job

3-2. 直接分析ajax调用的接口,请求这个接口爬取数据
拉勾网的反爬虫机制是基于cookies的,同一个cookies仅可以重复几次请求,应该是有时间方面的限制。尝试使用代理IP也不行,可能cookies与IP进行了绑定。且直接请求ajax接口的方式,很容易被发现是爬虫而被封。下面的爬虫代码爬取两三页的数据便会被识别出来而被封。

def main():
    sess = requests.session()
    
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHT\
            ML, like Gecko) Chrome/68.0.3440.106 Safari/537.36',
        'Referer': 'https://www.lagou.com/jobs/list_Python?px=default&city=%E5%85%A8%E5%9B%BD',

        'Host': 'www.lagou.com',
        'Origin': 'https://www.lagou.com',

        'X-Anit-Forge-Code': '0',
        'X-Anit-Forge-Token': 'None',
        'X-Requested-With': 'XMLHttpRequest'
    }

    data = {
        'first': 'false',
        'pn': '1',
        'kd': 'python爬虫'
    }

    url = 'https://www.lagou.com/jobs/positionAjax.json?needAddtionalResult=false'

    jobs = []   #存储所有职位信息
    for page in range(1,26):
        data['pn'] = page
        response = sess.post(url=url, headers=headers, data=data)
        print('获取到的cookies:', sess.cookies.get_dict())  # 测试

        page_html = response.text

        # 获取职位ID
        positionIds = re.findall(r'"positionId":(\d{7})', page_html)

        for positionId in positionIds:
            
            try:
                # 拼接成职位详情页链接
                position_link = 'https://www.lagou.com/jobs/%s.html'%positionId
                response = sess.get(url=position_link, headers=headers)

                detail_page_html = response.text
                job = parse_detail_position(detail_page_html)
                jobs.append(job)
                print(job)  # 测试
            except Exception:
                print('错误链接',position_link)
                positionIds.append(positionId)

            #随机停顿几秒
            n = random.uniform(0.5, 3.5)
            time.sleep(n)

    return jobs

3-2. 使用selenium驱动浏览器爬取数据
使用selenium+chromedriver就可以避开拉勾网的反爬机制。

def main():

    driver = webdriver.Chrome()
    url = 'https://www.lagou.com/zhaopin/Python/?labelWords=label'
    driver.get(url)

    # 存储所有的职位信息
    jobs = []
    while True:
        #直接通过WebElement对象获取属性(职位的详情链接)
        position_a = driver.find_elements_by_xpath('//a[@class="position_link"]')
        position_links = [a.get_attribute('href') for a in position_a]

        # 打开新窗口
        driver.execute_script('window.open()')
        # 切换到新窗口
        driver.switch_to.window(driver.window_handles[-1])

        for position_link in position_links:

            #连续访问详情页有时会返回异常页面,导致解析报错
            try:
                driver.get(position_link)
                page_html = driver.page_source
                job = parse_detail_position(page_html)
                jobs.append(job)
            except Exception:
                print('异常链接',position_link)
                #错误链接重新放回
                position_links.append(position_link)

            # 每详情页停顿
            n = random.uniform(0.2, 1)  # 均匀分布
            time.sleep(n)

            # break  #测试
            print(position_link)  #测试


        #关闭当前详情页面
        driver.close()
        #切换列表页窗口,注意:虽然详情页窗口已经关闭,但仍然需要显式的切换回列表页窗口!selenium不会自动切换窗口的!
        driver.switch_to.window(driver.window_handles[0])

        #显式等待;元素出现才获取
        next_page = WebDriverWait(driver,30).until(
            EC.presence_of_element_located((By.XPATH, '//div[@class="pager_container"]/a[last()]'))
        )

        # 判断是否到最后一页,此时下一页不可点击
        if next_page.get_attribute('class') == 'page_no pager_next_disabled':
            break

        next_page.click()  #点击下一页

        #每列表页停顿
        n = random.uniform(0.5,2)  #均匀分布
        time.sleep(n)

        break  #测试
    driver.quit()  #关闭浏览器

    return jobs
  1. 启动爬虫,并将数据写入csv文件
if __name__ == '__main__':

    jobs = main()

    headers = ['department','job_name','salary','city','work_year','educ',\
            'categroy','job_request','publish_time','job_advantage','job_bt',\
            'work_addr','company_name','company_info']

    with open('lagou.csv','w',encoding='utf-8',newline='') as fp:
        writer = csv.DictWriter(fp,headers)
        writer.writeheader()
        writer.writerows(jobs)

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,378评论 6 481
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,356评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 152,702评论 0 342
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,259评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,263评论 5 371
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,036评论 1 285
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,349评论 3 400
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,979评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,469评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,938评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,059评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,703评论 4 323
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,257评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,262评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,485评论 1 262
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,501评论 2 354
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,792评论 2 345

推荐阅读更多精彩内容