初级python爬虫实战二——爬取迁木网大学信息

1 基础版本

1.1 预备 && 思路

  • 进入迁木网排名页面


    迁木网排名页面
  • 获取每个学校的具体信息
    依次点击学校名称下的链接,进入详情页。以麻省理工大学为例:


    麻省理工大学
  • 爬虫爬取页面中表格信息

1.2 代码实现

思路不难,和昨天的爬虫类似,主要还是xpath的使用。实现过程中遇到了两个小问题。

  1. 部分表格的左侧或右侧有多行文字。直接用‘......//text()’会导致报错:out of range。解决办法是以行、列查找,再按照行列复制给key, value。
    rows = selector.xpath('//*[@id="wikiContent"]/div[1]//td[1]')
    cols = selector.xpath('//*[@id="wikiContent"]/div[1]//td[2]')

    keys = []
    values = []
    print(data['name'])
    for row in rows:
        keys.append(' '.join(row.xpath('.//text()')))

    for col in cols:
        values.append(' '.join(col.xpath('.//text()')))
  1. 解决第一个问题之后,出现了第二个问题,即部分学校左边多个但云哥对应右边一个合并单元格。在不破坏1中逻辑的前提下,我只能选择丢弃这一小部分学校。
麦吉尔大学
 if len(keys) != len(values):
        continue

贴出完整代码:

import requests
from lxml import etree

ua = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) ' \
     'AppleWebKit/537.36 (KHTML, like Gecko) ' \
     'Chrome/80.0.3987.116 Safari/537.36'
headers = {'User-Agent': ua}
r = requests.get("http://www.qianmu.org/ranking/1528.htm", headers=headers)

# 访问迁木网首页,提取出排名首页的大学链接
et = etree.HTML(r.text)
links = et.xpath('//*[@id="page-wrapper"]/div/div[2]/div/div/div/div[2]/div/div[5]/table//td[2]//@href')

university = []
# 依次从大学链接中获取大学的具体信息
for link in links:
    resp = requests.get(link, headers=headers)
    selector = etree.HTML(resp.text)
    data = {}
    data['name'] = selector.xpath('//*[@id="wikiContent"]/h1/text()')[0]

    rows = selector.xpath('//*[@id="wikiContent"]/div[1]//td[1]')
    cols = selector.xpath('//*[@id="wikiContent"]/div[1]//td[2]')

    keys = []
    values = []
    print(data['name'])
    for row in rows:
        keys.append(' '.join(row.xpath('.//text()')))

    for col in cols:
        values.append(' '.join(col.xpath('.//text()')))

    if len(keys) != len(values):
        continue
    for i in range(len(keys)):
        data[keys[i]] = values[i]
    university.append(data)

print(university)

基础版本结束~

2 多线程版本

基础版本虽然能够实现基本的功能,但是还是存在一个很严重的问题:太慢了。这对一只小爬虫来说无疑是致命的。所以来升级一下这只小爬虫。

2.1 重构代码

基础班的代码有点丑,而且不符合模块化编程的思想。在引入多线程之前,先对丑代码进行一下重构。

简化代码:

  • cols rows的处理
#   处理之前
    for row in rows:
        keys.append(' '.join(row.xpath('.//text()')))

    for col in cols:
        values.append(' '.join(col.xpath('.//text()')))

#   处理之后
    keys = [' '.join(row.xpath('.//text()')) for row in rows]
    values = [' '.join(col.xpath('.//text()')) for col in cols]

2.2 多线程处理

这一块理解不深刻,多写几个例子

import time
import threading
from queue import Queue
import requests
from lxml import etree

start_url = 'http://www.qianmu.org/ranking/1528.html'
links_queue = Queue()
threads = []
thread_num = 100
page_num = 0


# 网络连接,返回response
def step_net(url):
    ua = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) ' \
         'AppleWebKit/537.36 (KHTML, like Gecko) ' \
         'Chrome/80.0.3987.116 Safari/537.36'
    headers = {'User-Agent': ua}
    resp = requests.get(url, headers=headers)
    return resp.text.replace('\t', '')


def link_handle():
    et = etree.HTML(step_net(start_url))
    links = et.xpath('//*[@id="page-wrapper"]/div/div[2]/div/div/div/div[2]/div/div[5]/table//td[2]//@href')
    for link in links:
        # 将所有链接存入队列
        links_queue.put(link)


def parse_university(link):
    # link = links_queue.get()
    resp = step_net(link)
    selector = etree.HTML(resp)
    data['name'] = selector.xpath('//*[@id="wikiContent"]/h1/text()')[0]
    rows = selector.xpath('//*[@id="wikiContent"]/div[1]//td[1]')
    cols = selector.xpath('//*[@id="wikiContent"]/div[1]//td[2]')
    keys = [' '.join(row.xpath('.//text()')) for row in rows]
    values = [' '.join(col.xpath('.//text()')) for col in cols]
    data.update(zip(keys, values))
    return data


def process_data(data):
    if data:
        print(data['name'])
        print(data)


def download():
    while True:
        link = links_queue.get()
        if link is None:
            break
        data = parse_university(link)
        process_data(data)
        global page_num
        page_num += 1
        links_queue.task_done()
        print("剩余未下载内容:%s,当前线程数:%s, threads线程池长度:%s" % (links_queue.qsize(),
                                                        len(threading.enumerate()),
                                                        len(threads)))

    pass


if __name__ == '__main__':
    data = {}
    start_time = time.time()
    link_handle()
    for i in range(thread_num):
        t = threading.Thread(target=download)
        t.start()
        threads.append(t)

    # 阻塞队列直到所有队列被清空
    links_queue.join()
    # 向队列发送N个none以通知线程退出。
    for i in range(thread_num):
        links_queue.put(None)
    # 退出线程
    for t in threads:
        t.join()
    lasted = time.time() - start_time
    print("下载了%s个页面,花费%s秒钟" % (page_num, lasted))
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,088评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,715评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,361评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,099评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 60,987评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,063评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,486评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,175评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,440评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,518评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,305评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,190评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,550评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,880评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,152评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,451评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,637评论 2 335

推荐阅读更多精彩内容