爬虫笔记(2):Urllib库与URLError异常处理

什么是Urllib库:

是Python提供的一个用于操作URL的模块,2与3不太一样:见#581;

快速使用Urllib爬取网页:

# 导入包
In [1]: import urllib.request
# 打开并爬取
In [2]: file = urllib.request.urlopen("http://www.baidu.com")
# 读取全部内容;read会把读取到的内容赋给一个字符串变量,readlines会赋给一个列表变量,推荐这种方式。
In [3]: data = file.read()
# 读取一行
In [4]: dataline = file.readline()
# 保存网页到本地
In [22]: fhandle = open("desktop/programming/python_work/baidu.html", "wb")

In [23]: fhandle.write(data)
Out[23]: 112074

In [24]: fhandle.close()

urllib其他常见用法:

# 返回与当前环境有关的信息:
In [25]: file.info()
Out[25]: <http.client.HTTPMessage at 0x106984400>
# 当前爬取网页的状态码:
In [26]: file.getcode()
Out[26]: 200
# URL地址:
In [27]: file.geturl()
Out[27]: 'http://www.baidu.com'
# 在URL中使用不符合标准的字符时进行编码:urllib.request.quote()
In [28]: urllib.request.quote("http://www.sina.com.cn")
Out[28]: 'http%3A//www.sina.com.cn'
# 解码:urllib.request.unquote()
In [29]: urllib.request.unquote('http%3A//www.sina.com.cn')
Out[29]: 'http://www.sina.com.cn'

浏览器的模拟——Headers属性

反爬虫设置需要;
两种模拟方法:

方法一:使用build_opener()修改报头
In [32]: headers = ("User-Agent","Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_1) AppleWebKit/
    ...: 537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36")

In [33]: opener = urllib.request.build_opener()

In [34]: opener.addheaders = [headers]

In [35]: data = opener.open(url).read()
方法二:使用add_header()添加报头
In [39]: req = urllib.request.Request(url)

In [40]: req.add_header("User-Agent","Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_1) AppleWeb
    ...: Kit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36")

In [41]: res = urllib.request.urlopen(req).read()

超时(timeout)设置:

长时间未响应。

In [1]: import urllib.request

In [2]: for i in range(1,100):
   ...:     try:
   ...:         req = urllib.request.urlopen("http://www.baidu.com", timeout=1)
   ...:         res = req.read()
   ...:         print(len(res))
   ...:     except Exception as e:
   ...:         print("出现异常 -->" + str(e))
   ...:         

HTTP协议请求实战:

HTTP请求主要分为6种:
  • GET请求:会通过URL网址传递信息,可以直接在URL中写上要传递的信息,也可以由表单传递,表单中的信息会自动转为URL中的数据;
  • POST请求:可以向服务器提交数据,是一种比较主流也比较安全的数据传递方式,比如登录时;
  • PUT请求:请求服务器存储一个资源,通常要指定存储的位置;
  • DELETE请求:请求服务器删除一个资源;
  • HEAD请求:请求获取对应的HTTP报头信息;
  • OPTIONS请求:可以获得当前URL所支持的请求类型
GET请求实例
In [3]: keywd = "hello"
In [4]: url = "http://www.baidu.com/s?wd=" + keywd
In [5]: req = urllib.request.Request(url)
In [6]: res = urllib.request.urlopen(req).read()
In [7]: with open("desktop/programming/python_work/4.html", "wb") as f:
   ...:     f.write(res)
   ...: 

如果关键字为中文,可以先编码quote()

实现思路:
  1. 构建对应的URL地址,该地址包含GET请求的字段名和字段内容等信息,并且满足请求格式;
  2. 以对应的URL为参数,构建Request对象;
  3. 通过urlopen()打开构建的对象;
  4. 按需求进行后续的处理;
POST请求实例:
实现思路:
  1. 设置好URL
  2. 构建表单数据,并使用urllib.parse.urlencode对数据进行编码处理;
  3. 创建Request对象,参数包括URL地址和要传递的数据;
  4. 使用add_header()添加头信息,模拟浏览器进行爬取;
  5. 使用urllib.request.urlopen()打开对应对象,完成信息传递;
  6. 后续处理。
In [10]: url = "http://www.iqianyue.com/mypost/"

In [11]: postdata = urllib.parse.urlencode({"name":"ceo@iqianyue.com", "pass":"aA123456"}).enc
    ...: ode('utf-8')

In [12]: req = urllib.request.Request(url, postdata)

In [13]: req.add_header('User-Agent', 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_1) AppleWe
    ...: bKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36')

In [14]: res = urllib.request.urlopen(req).read()

In [15]: with open("desktop/programming/python_work/6.html", "wb") as f:
    ...:     f.write(res)
    ...:     

代理服务器的设置:

有时用同一个IP爬取同一个网站久了会被屏蔽,使用代理服务器,代理服务器地址可以从网上找,尽量找验证时间短的IP;

实现思路:
  1. 先建立一个函数;
  2. 两个形参:代理服务器地址,网页地址;
  3. 使用urllib.request.ProxyHandler()设置对应代理服务器信息,格式:urllib.request.ProxyHandler({‘http’:代理服务器地址})
  4. 使用urllib.request.build_opener()创建一个自定义的opener对象,第一个参数为代理信息,第二个参数为urllib.request.HTTPHandler类;
  5. 为了方便,可以使用urllib.request.install_opener()创建全局默认的opener对象,在使用urlopen()时也会使用我们安装的opener对象;
  6. urlopen()打开网页爬取,编码赋值;
In [16]: def use_proxy(proxy_addr, url):
    ...:     proxy = urllib.request.ProxyHandler({'http':proxy_addr
    ...: })
    ...:     opener = urllib.request.build_opener(proxy, urllib.req
    ...: uest.HTTPHandler)
    ...:     urllib.request.install_opener(opener)
    ...:     data = urllib.request.urlopen(url).read().decode('utf-
    ...: 8')
    ...:     return data
    ...: 
In [21]: proxy_addr = "114.115.140.25:3128"

In [22]: res = use_proxy(proxy_addr, "http://www.baidu.com")

In [23]: print(len(res))
111712

DebugLog实战:

在程序运行时,边运行边打印调试日志,此时需要开启DebugLog。

实现思路:
  1. 分别使用urllib.request.HTTPHandler()urllib.request.HTTPSHandler()debuglevel设置为1
  2. 使用urllib.request.build_opener()创建自定义的opener对象,并使用1中设置的值作为参数;
  3. urllib.request.install_opener()创建全局默认的opener对象,这样,在使用urlopen()时也会使用安装的opener对象;
  4. 进行后续操作;
In [24]: httphd = urllib.request.HTTPHandler(debuglevel=1)

In [25]: httpshd = urllib.request.HTTPSHandler(debuglevel=1)

In [26]: opener = urllib.request.build_opener(httphd, httpshd)

In [27]: urllib.request.install_opener(opener)

In [28]: res = urllib.request.urlopen("http://edu.51cto.com")
send: b'GET / HTTP/1.1\r\nAccept-Encoding: identity\r\nHost: edu.51cto.com\r\nUser-Agent: Python-urllib/3.6\r\nConnection: close\r\n\r\n'
reply: 'HTTP/1.1 200 OK\r\n'
header: Date header: Content-Type header: Transfer-Encoding header: Connection header: Set-Cookie header: Server header: Vary header: Vary header: X-Powered-By header: Set-Cookie header: Set-Cookie header: Set-Cookie header: Load-Balancing header: Load-Balancing 

异常处理神器——URLError实战:

urllib.error模块,try…except语句,主要讲URLErrorHTTPError

产生URLError的原因:
  • 连接不上服务器;
  • 远程URL不存在;
  • 无网络;
  • 触发了HTTPError
    HTTPError无法处理前三种,所以优化为先让HTTPError处理,无法处理再用URLError
In [31]: try:
    ...:     urllib.request.urlopen("http://blog.baiduuss.net")
    ...: except urllib.error.HTTPError as e:
    ...:     print(e.code)
    ...:     print(e.reason)
    ...: except urllib.error.URLError as e:
    ...:     print(e.reason)
    ...:     
[Errno 8] nodename nor servname provided, or not known
常见状态码及含义:
  • 200 OK:一切正常;
  • 301 Moved Permanently:重定向到临时URL,永久性;
  • 302 Found:重定向到临时URL,非永久性;
  • 304 Not Modified:请求的资源未更新;
  • 400 Bad Request:非法请求;
  • 401 Unauthorized:请求未授权;
  • 403 Forbidden:禁止访问;
  • 404 Not Found:没有找到对应页面;
  • 500 Internal Server Error:服务器内部出现错误;
  • 501 Not Implemented:服务器不支持实现请求所需要的功能;
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,242评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,769评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,484评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,133评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,007评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,080评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,496评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,190评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,464评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,549评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,330评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,205评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,567评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,889评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,160评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,475评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,650评论 2 335

推荐阅读更多精彩内容

  • 一、网络爬虫的定义 网络爬虫,即Web Spider,是一个很形象的名字。把互联网比喻成一个蜘蛛网,那么Spide...
    随风化作雨阅读 1,073评论 0 0
  • 1 前言 作为一名合格的数据分析师,其完整的技术知识体系必须贯穿数据获取、数据存储、数据提取、数据分析、数据挖掘、...
    whenif阅读 18,039评论 45 523
  • Spring Cloud为开发人员提供了快速构建分布式系统中一些常见模式的工具(例如配置管理,服务发现,断路器,智...
    卡卡罗2017阅读 134,494评论 18 139
  • 一、概述 urllib2是Python的一个针对URLs的库。他以urlopen函数的形式提供了一个非常简单的...
    MiracleJQ阅读 1,467评论 0 5
  • Python爬虫入门(urllib+Beautifulsoup) 本文包括:1、爬虫简单介绍2、爬虫架构三大模块3...
    廖少少阅读 9,722评论 0 6