python抓取百度聘职位—全站

1.准备
网站:http://zhaopin.baidu.com

2.思路

1.由于是动态网页,使用json解析数据
2.
3.

3.难点/解决

  1.解析json数据
  2.cookie使用fildder抓包获取

4.代码

import requests
import json
import pymysql
import time
from bs4 import BeautifulSoup
import re


conn = pymysql.Connect(host='x',user='x',password='x',database='x',port=3306,charset='x')
cursor =conn.cursor()
sql = "CREATE TABLE IF NOT EXISTS %s(ID INT(10) NOT NULL PRIMARY KEY AUTO_INCREMENT," \
      "A VARCHAR(255)," \
      "B VARCHAR(255)," \
      "C VARCHAR(255))"
dbname=input('ABC输入数据库名:')
cursor.execute(sql%dbname)
print('创建数据库%s成功!'%dbname)

def get_url(post,page,city):
    url = 'http://zhaopin.baidu.com/api/quanzhiasync?query={}&sort_type=1&city={}&detailmode=close&rn=20&pn={}'.format(post,city,page)
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 UBrowser/6.2.3964.2 Safari/537.36'
        ,'Referer': 'http://zhaopin.baidu.com/quanzhi?tid=4139&ie=utf8&oe=utf8&query=python&city_sug=%E5%B9%BF%E5%B7%9E'
        , 'Host': 'zhaopin.baidu.com'
        ,'Cookie':'Hm_lvt_dc173081ad0848b7d3e412373bb02119=1493714008; PSTM=1500109449; BIDUPSID=EBA58E2B59F5D325007E6FA067243233; PRY=1; BAIDUID=57829DB7D914A3AB376B0A2A7415FD8C:FG=1; Hm_lvt_da3258e243c3132f66f0f3c247b48473=1509328256; Hm_lvt_24117ca0ed302abec8cd5b93e02d18cd=1509858595; BDUSS=ltQWtHcEYxcEt6eEVkdzBUemo0R1dPZHJxdE9LOE5EbXhYaHpQMWJTVEUta0ZhQVFBQUFBJCQAAAAAAAAAAAEAAABIwC9~eWFuZ2Z1bG9uZ2hvbWUAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAMRtGlrEbRpaOF; MCITY=-%3A; BDRCVFR[VIIOqqdxwZ_]=mk3SLVN4HKm; PSINO=7; H_PS_PSSID=1460_21111_22075; URLTITLESALARY=%20; Hm_lvt_c676f95eebbd4fa8a59418f48090ac4d=1513303313,1514278789,1514336165,1515219239; Hm_lpvt_c676f95eebbd4fa8a59418f48090ac4d=1515219701'

    }
    #pn,0,20
    data = {
        'pn': '{}'.format(page)
        , 'rn':'20'
        , 'detailmode':'close'
        , 'city_sug':'{}'.format(city)
        , 'sort_type':'1'
        , 'query':'{}'.format(post)

    }


    try:
        response = requests.get(url,headers=headers,params=data).text
        json_dict = json.loads(response)
        json_data = json_dict['data']
        json_main = json_data['main']
        json_datas = json_main['data']

        i=0
        item = json_datas.get('disp_data')
        for items in item:
            ####A
            city = items.get('city')
            price = items.get('salary')
            title = items.get('title')
            buty = items.get('description_jd')
            terrace = items.get('source')
            times = items.get('lastmod')
            company_data = items.get('officialname'),':,岗位:{},城市:{},工资:{}\n,{}平台:{},{}\n'.format(title,city,price.split('-')[0],terrace,buty,times)
            #print(company_data)
            company=items.get('officialname')
            ###B
            phone1 = items.get('@cts')
            phone2 = items.get('@dts')
            email = items.get('email')
            companyb = items.get('officialname'),'电话:{},电话:{},EMail:{}'.format(phone1,phone2,email)

            i=i+1
            #变成str,好存入MySQL
            company_str1 = ''.join(tuple(company_data))
            company_str2_phone = ''.join(tuple(companyb))
            print(i)
            print(company_str1,company_str2_phone)

            #print(company,title)
            #print(i)
            ####数据库
            sql = "INSERT INTO %s(A,B)VALUES('%s','%s')"
            values = (dbname,company_str1,company_str2_phone)
            cursor.execute(sql%values)
            print('导入成功')
        conn.commit()
        time.sleep(0.1)
    except:
        print('response error!!!')
        return None

    else:
        pass

def main():
    urls = 'http://zhaopin.baidu.com/quanzhi?tid=4139&ie=utf8&oe=utf8&query=%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90&city_sug=%E5%B9%BF%E5%B7%9E'
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 UBrowser/6.2.3964.2 Safari/537.36'
        ,
        'Referer': 'http://zhaopin.baidu.com/quanzhi?tid=4139&ie=utf8&oe=utf8&query=python&city_sug=%E5%B9%BF%E5%B7%9E'
        , 'Host': 'zhaopin.baidu.com'
        ,
        'Cookie': 'Hm_lvt_dc173081ad0848b7d3e412373bb02119=1493714008; PSTM=1500109449; BIDUPSID=EBA58E2B59F5D325007E6FA067243233; PRY=1; BAIDUID=57829DB7D914A3AB376B0A2A7415FD8C:FG=1; Hm_lvt_da3258e243c3132f66f0f3c247b48473=1509328256; Hm_lvt_24117ca0ed302abec8cd5b93e02d18cd=1509858595; BDUSS=ltQWtHcEYxcEt6eEVkdzBUemo0R1dPZHJxdE9LOE5EbXhYaHpQMWJTVEUta0ZhQVFBQUFBJCQAAAAAAAAAAAEAAABIwC9~eWFuZ2Z1bG9uZ2hvbWUAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAMRtGlrEbRpaOF; MCITY=-%3A; BDRCVFR[VIIOqqdxwZ_]=mk3SLVN4HKm; PSINO=7; H_PS_PSSID=1460_21111_22075; URLTITLESALARY=%20; Hm_lvt_c676f95eebbd4fa8a59418f48090ac4d=1513303313,1514278789,1514336165,1515219239; Hm_lpvt_c676f95eebbd4fa8a59418f48090ac4d=1515219701'

    }
    try:
        response = requests.get(urls, headers).text
        soup = BeautifulSoup(response, 'lxml')
        item = soup.find_all('div', attrs={'class': re.compile('all-jobs')})
        city = soup.find_all('div', attrs={'class': 'tabs-body'})
        for citys in city:
            cityss = citys.find_all('dd')
            for g in cityss:
                city_name = g.get_text()
                # city_name是城市名字
                # print(city_name)

                for items in item:
                    a = items.find_all('a')
                    for b in a:
                        profession = b.get_text()
                        # profession=职业

                        for page in range(0,200,20):
                            #page=页码
                            get_url(post=profession,city=city_name,page=page)
                            print('城市:%s,行业%s,页码%s'%(city_name,profession,page))
    except:
        print('main,error!!!')


if __name__ == '__main__':
    main()

    print('CLOSE DATABASE OK!!!')
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,179评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,229评论 2 380
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,032评论 0 336
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,533评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,531评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,539评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,916评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,574评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,813评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,568评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,654评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,354评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,937评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,918评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,152评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,852评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,378评论 2 342

推荐阅读更多精彩内容

  • Android 自定义View的各种姿势1 Activity的显示之ViewRootImpl详解 Activity...
    passiontim阅读 171,386评论 25 707
  • 茉莉的书——《绽放》看到第5章。摊在面前的这篇是《像不曾失去过那样,继续爱》。 《如果我回头你还在,该多好》,王祎...
    听雨呢喃阅读 1,539评论 8 7
  • 走过多少城市 到过多少地方 有一座城市 我久久难忘 因为一个人 我把这里当故乡 这个人就是你 你给我念想 面带微笑...
    银河湾阅读 1,676评论 1 3
  • 2017.9.5 《长颈鹿不会跳舞》 【文】吉尔斯 安德烈 【图】盖伊 帕克 里斯 【译】麦豆,兰童 从大方面来讲...
    Ice的零度空间阅读 72,536评论 0 9
  • 向往一种生活如同草原迁徙的角马星球上的事物不曾阻挡前进的步伐踩着未冷的尸体带着瞬间的怀念热血和冷酷让生命变的绚烂一...
    冷榆阅读 444评论 3 10