【python16】爬虫

#coding=utf-8
from time import sleep
import requests
import sys
from pyquery import PyQuery as pq

reload(sys)
sys.setdefaultencoding("utf-8")

class Gra():

    def __init__(self):
        self.user_agent = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'
        self.headers = {
            'User-Agent': self.user_agent
        }

        fo = open("/Users/luomeng/Desktop/room.txt", "w")
        fo.write("")
        fo.close()

        fo = open("/xxx/room.txt", "a+")
        fo.write("城市,日期,出售单价,出售供给量,售租比\n")
        fo.close()


    def grabData(self, cityid, cityname):
        url = "http://www.xxxx.cn/market/chartsdatanew.html"
        data = {
            'city': cityid,
            'proptype': '11',
            'district': 'allsq1',
            'sinceyear': '5',
            'flag': '1',
            'isv3': '0',
            'type': 'forsale',
            'matchrand': 'a0b92382',
            'based': 'supply',
            'dtype': 'line'
        }
        cookiesstr = "userchannel=direct; Hm_lvt_c2a7a3cec6f9dd8849155424efab19c7=1556094056; deviceStr=4f0750b83bbd41af37678bf609bfe2b5; cityredata=43464a06c67b93a525ab1b09566f7b73; city="+ cityid +"; thirdLog_fromurl=aHR0cDovL3d3dy5jcmVwcmljZS5jbi91cmJhbi9iai5odG1s; cityurl=e8727615c054b43; Hm_lpvt_c2a7a3cec6f9dd8849155424efab19c7=155615774"
        cookies = {}
        for line in cookiesstr.split(';'):
            name, value = line.strip().split('=', 1)
            cookies[name] = value

        # 城市
        data["city"] = cityid

        # 价格
        prices = []
        data["based"] = "price"
        resp = requests.get(url, params=data, headers=self.headers, cookies=cookies)
        print resp.url
        resp = resp.json()
        for r in resp["data"][0]["rows"]:
            month = r["month"]
            try:
                date = r["data"]
            except:
                date = 0
            prices.append({"cityid": cityid, "month": month, "data": date})

        # 新增房源
        supplys = []
        data["based"] = "supply"
        resp = requests.get(url, params=data, headers=self.headers, cookies=cookies)
        print resp.url
        resp = resp.json()
        for r in resp["data"][0]["rows"]:
            month = r["month"]
            try:
                date = r["data"]
            except:
                date = 0
            supplys.append({"cityid": cityid, "month": month, "data": date})

        # 新增房源
        slratios = []
        data["based"] = "slratio"
        resp = requests.get(url, params=data, headers=self.headers, cookies=cookies)
        print resp.url
        resp = resp.json()
        for r in resp["data"][0]["rows"]:
            month = r["month"]
            try:
                date = r["data"]
            except:
                date = 0
            slratios.append({"cityid": cityid, "month": month, "data": date})

        # 拼接数据
        citydata = []
        for p in prices:
            ct = p["cityid"]
            month = p["month"]
            price = p["data"]
            for s1 in supplys:
                if ct == s1["cityid"] and month == s1["month"]:
                    supply = s1["data"]
                    break
            for s2 in slratios:
                if ct == s2["cityid"] and month == s2["month"]:
                    slratio = s2["data"]
                    break
            citydata.append({"cityname": cityname, "month": month, "price": price, "supply": supply, "slratio": slratio})

        # 输出数据并写书文件
        fo = open("/Users/luomeng/Desktop/room.txt", "a+")
        for cd in citydata:
            fo.write("%s,%s,%s,%s,%s\n" % (cd["cityname"], cd["month"], cd["price"], cd["supply"], cd["slratio"]))
        fo.close()

    def getCity(self):
        resp = requests.get("http://www.xxxx.cn//market/ajaxselectcity.html", headers=self.headers)
        d = pq(resp.text)

        citylist = []
        i = 0
        long = len(d('.citylistbox').children().children())
        while i < long:
            data = d('.citylistbox').children().children().eq(i)
            citylist.append({"cityid": data.attr("onclick").replace("cityselecta('", "").replace("');", ""), "cityname": data.text()})
            i += 1
        return citylist


if __name__ == "__main__":
    gra = Gra()
    citylist = gra.getCity()
    for city in citylist:
        cityid = city["cityid"]
        cityname = city["cityname"]
        print cityname, "开始抓取..."
        gra.grabData(cityid, cityname)
        sleep(5)
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 200,176评论 5 469
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 84,190评论 2 377
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 147,232评论 0 332
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,953评论 1 272
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,879评论 5 360
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,177评论 1 277
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,626评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,295评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,436评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,365评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,414评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,096评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,685评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,771评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,987评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,438评论 2 346
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,032评论 2 341

推荐阅读更多精彩内容