麻瓜编程·python实战·2-2作业:爬取58手机号

我的结果

链接.png
详情.png

我的代码

from bs4 import BeautifulSoup
import requests, pymongo, re, time, urllib, socket, json, random

# 基本页面
url = 'http://bj.58.com/shoujihao/{}/pn{}/'
# headers
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/52.0.2743.116 Safari/537.36'}
# 使用session
req_session = requests.session()
# 建立数据库
client = pymongo.MongoClient('localhost', 27017)
walden = client['walden']
phone_test = walden['phone_test']
phone_info_test = walden['phone_info_test']

# 从列表页面获取手机号和链接,并存入数据库,对应第一个结果图
def get_phone_url(url, page, who=1):
    # 整理地址,注意who和page的位置
    search_page = url.format(who, page)
    web_data = req_session.get(search_page, headers = headers)
    soup = BeautifulSoup(web_data.text, 'lxml')
    # 如果页码超出范围则pass
    if soup.find('strong'):
        # 考虑到selector结构一样,为了区分广告条目,这里采用了find_all搭配正则
        tel_numbers = soup.find_all('li', logr=re.compile('.*-1$'))
        tel_urls = soup.find_all('li', logr=re.compile('.*-1$'))
        for tel_number, tel_url in \
            zip(tel_numbers, tel_urls):
            tel_number = tel_number.get_text().split()[0]
            # 嵌套find_all
            tel_url = tel_url.find_all('a', 't')[0].get('href')
            # 写入数据库
            data = {'Url': tel_url, 'Number': tel_number}
            print(data)
            phone_test.insert_one(data)
    else:
        pass

# 从详情页面获取信息
def get_phone_info(url):
    try:
        web_data = req_session.get(url, headers=headers, timeout=6)
        soup = BeautifulSoup(web_data.text, 'lxml')
        # 以防404
        four_o_four = '404' in soup.find('script', type='text/javascript').get('src').split('/')
        if four_o_four:
            pass
        else:
            title = ' '.join(soup.select('.col_sub h1')[0].get_text().split())
            price = soup.select('.price')[0].get_text().strip()
            time = soup.select('li.time')[0].get_text().strip()
            # 不是所有页面都有区域,这里用正则表达做了一个判断
            if re.findall('区域', str(soup.select('.col_sub'))):
                region = soup.select('.su_con a')[0].get_text().strip()
            else:
                region = None
            name = soup.select('a.tx')[0].get_text()
            contact = soup.select('span.f20')[0].get_text().strip()
            # 写入数据库
            phone_info_test.insert_one({
                'title': title,
                'price': price,
                'time': time,
                'region': region,
                'name': name,
                'contact': contact
            })
    # 防止报错
    except UnicodeDecodeError as e:
        print('-----UnicodeDecodeError url:', url)

    except urllib.error.URLError as e:
        print("-----urlError url:", url)

    except socket.timeout as e:
        print("-----socket timout:", url)

# 从里【开始】,获取10页链接写入数据库
for single_page in range(10):
    print('页数:',single_page + 1, '\n', '-'*60)
    time.sleep(10)
    get_phone_url(url, single_page)

# 从数据库获取链接
for item in phone_test.find():
    print(item['Url'])
    info_page = item['Url']
    get_phone_info(info_page)
    time.sleep(1)

我的感想:

  • 我估计我花了5个多小时,处理了挺多大大小小的坑,主要的坑点在于:广告的剔除个别结构差异的地方(页面超出范围、404等)要做判断,以及老是报错‘Max retries exceeded with url’
  • 对于坑点:
    • 我觉得我用正则来剔除广告有点“霸王硬上弓”,别的同学通过筛选链接来处理挺简单明了,但需要一些细心和意识。


      广告.png

      正常.png

      从地址来剔除广告.png
  • 对于‘Max retries exceeded with url’呢。以我目前的经验:要么等会弄,要么调整sleep的时间,要么加proxy,要么改headers,属于一种瞎子摸象的状态。
  • 对于结构上的差异或许需要经验来培养意识,像404的排除,页码范围的超出,老师讲出来顺理成章,但自己操作起来还是挺生疏的。
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 200,612评论 5 471
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 84,345评论 2 377
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 147,625评论 0 332
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,022评论 1 272
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,974评论 5 360
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,227评论 1 277
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,688评论 3 392
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,358评论 0 255
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,490评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,402评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,446评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,126评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,721评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,802评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,013评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,504评论 2 346
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,080评论 2 341

推荐阅读更多精彩内容