python spider urllib2

1、urllib2.urlopen() 发送GET请求

#!/usr/bin/env python
# -*- coding:utf-8 -*-

# 1、导入urllib2库
import urllib2

# 2、设置要访问的网络地址
response = urllib2.urlopen("http://www.baidu.com/")

# 3、read()方法就是读取文件里的全部内容,返回字符串
html = response.read()
print html

2、urllib2.Request() 设置请求头

#!/usr/bin/env python
# -*- coding:utf-8 -*-

import urllib2

# 1、请求头参数键值对
ua_headers = {
  "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"
}

# 2、urllib2.Request() 方法构造一个请求对象
request = urllib2.Request(
  "http://www.baidu.com/", # 固定参数,后面是一串【变参列表】
  headers = ua_headers     # 【变参列表】后的固定参数,必须写上参数名
)

# 3、向指定的url地址发送请求,并返回服务器响应的类文件对象
response = urllib2.urlopen(request)

# 4、read()方法就是读取文件里的全部内容,返回字符串
html = response.read()

# 5、返回 HTTP的响应码,成功返回200,4服务器页面出错,5服务器问题
print response.getcode()

# 6、返回 返回实际数据的实际URL,防止重定向问题
print response.geturl()

# 7、返回 服务器响应的HTTP报头
print response.info()

# 8、打印响应内容
print html

3、请求头 - UserAgent

#!/usr/bin/env python
# -*- coding:utf-8 -*-

import urllib2
import random

url = "http://www.baidu.com/"

# 1、可以是User-Agent列表,也可以是代理列表
ua_list = [
  "Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv2.0.1) Gecko/20100101 Firefox/4.0.1",
  "Mozilla/5.0 (Windows NT 6.1; rv2.0.1) Gecko/20100101 Firefox/4.0.1",
  "Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11",
  "Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11",
  "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11"
]

# 2、在User-Agent列表里随机选择一个User-Agent
user_agent = random.choice(ua_list)

# 3、构造一个请求
request = urllib2.Request(url)

# 4、add_header()方法 添加/修改 一个HTTP报头
request.add_header("User-Agent", user_agent)

# 5、get_header() 获取一个已有的HTTP报头的值,注意只能是第一个字母大写,其他的必须小写
print request.get_header("User-agent")

4、发送 GET 请求

#!/usr/bin/env python
# -*- coding:utf-8 -*-

import urllib
import urllib2

url = "http://www.baidu.com/s"
headers = {"User-Agent" : "Mozilla 。。。。"}

keyword = raw_input("请输入需要查询的关键字: ")

wd = {"wd" : keyword}

# 通过urllib.urlencode() 参数是一个dict类型
wd = urllib.urlencode(wd)

# 拼接完整的url
fullurl = url + "?" + wd

# 构造请求对象
request = urllib2.Request(fullurl, headers = headers)

# 发送网络请求,并获取结果数据
response = urllib2.urlopen(request)
print response.read()

5、发送 POST 请求

#!/usr/bin/env python
# -*- coding:utf-8 -*-

import urllib
import urllib2

# 1、通过抓包的方式获取的url,并不是浏览器上显示的url
url = "http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule&smartresult=ugc&sessionFrom=null"

# 2、完整的请求头headers字典
headers = {
  "Accept" : "application/json, text/javascript, */*; q=0.01",
  "X-Requested-With" : "XMLHttpRequest",
  "User-Agent" : "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36",
  "Content-Type" : "application/x-www-form-urlencoded; charset=UTF-8",
}

# 3、用户接口输入
key = raw_input("请输入需要翻译的文字:")

# 4、发送到web服务器的表单数据
formdata = {
  "type" : "AUTO",
  "i" : key,
  "doctype" : "json",
  "xmlVersion" : "1.8",
  "keyfrom" : "fanyi.web",
  "ue" : "UTF-8",
  "action" : "FY_BY_CLICKBUTTON",
  "typoResult" : "true"
}

# 5、经过urlencode转码
data = urllib.urlencode(formdata)

# 6、如果Request()方法里的data参数有值,那么这个请求就是POST
request = urllib2.Request(url, data = data, headers = headers)

# 7、发送网络请求
print urllib2.urlopen(request).read()

6、设置 cookie 请求头参数

#!/usr/bin/env python
# -*- coding:utf-8 -*-

import urllib2

url = "http://www.renren.com/410043129/profile"

# 1、请求头参数键值对
headers = {
  "Host" : "www.renren.com",
  "Connection" : "keep-alive",
  #"Upgrade-Insecure-Requests" : "1",
  "User-Agent" : "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36",
  "Accept" : "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8",
  "Referer" : "http://www.renren.com/SysHome.do",
  #"Accept-Encoding" : "gzip, deflate, sdch",
  "Cookie" : "anonymid=ixrna3fysufnwv; _r01_=1; depovince=GW; jebe_key=f6fb270b-d06d-42e6-8b53-e67c3156aa7e%7Cc13c37f53bca9e1e7132d4b58ce00fa3%7C1484060607478%7C1%7C1484400895379; jebe_key=f6fb270b-d06d-42e6-8b53-e67c3156aa7e%7Cc13c37f53bca9e1e7132d4b58ce00fa3%7C1484060607478%7C1%7C1484400890914; JSESSIONID=abcX8s_OqSGsYeRg5vHMv; jebecookies=0c5f9b0d-03d8-4e6a-b7a9-3845d04a9870|||||; ick_login=8a429d6c-78b4-4e79-8fd5-33323cd9e2bc; _de=BF09EE3A28DED52E6B65F6A4705D973F1383380866D39FF5; p=0cedb18d0982741d12ffc9a0d93670e09; ap=327550029; first_login_flag=1; ln_uact=mr_mao_hacker@163.com; ln_hurl=http://hdn.xnimg.cn/photos/hdn521/20140529/1055/h_main_9A3Z_e0c300019f6a195a.jpg; t=56c0c522b5b068fdee708aeb1056ee819; societyguester=56c0c522b5b068fdee708aeb1056ee819; id=327550029; xnsid=5ea75bd6; loginfrom=syshome",
  "Accept-Language" : "zh-CN,zh;q=0.8,en;q=0.6",
}

# 2、创建请求对象
request = urllib2.Request(url, headers = headers)

# 3、创建响应
response = urllib2.urlopen(request)

# 4、发送网络请求,获取响应数据
print response.read()

7、忽略https验证

#!/usr/bin/env python
# -*- coding:utf-8 -*-

import urllib2
import ssl

url = "https://www.12306.cn/mormhweb/"

# 1、忽略SSL安全认证
context = ssl._create_unverified_context()

# 2、请求头参数键值对
headers = {
  "User-Agent" : "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"
}

# 3、创建请求
request = urllib2.Request(url, headers=headers)

# 4、忽略SSL安全认证,添加到context参数里
response = urllib2.urlopen(request, context=context)

# 5、读取响应数据
print response.read()

8、urllib2.build_opener()

#!/usr/bin/env python
# -*- coding:utf-8 -*-

import urllib2

# 1、构建一个HTTPHandler处理器对象,支持处理HTTP的请求
# -1)增加参数"debuglevel=1"将会自动打开Debug log 模式,
# -2)程序在执行的时候会打印收发包的信息
# http_handler = urllib2.HTTPHandler()
http_handler = urllib2.HTTPHandler(debuglevel=1)

# 2、调用build_opener()方法构建一个自定义的opener对象
opener = urllib2.build_opener(http_handler)

# 3、构造请求参数
request = urllib2.Request("http://www.baidu.com/")

# 4、opner().open()发送网络请求
response = opener.open(request)

# 5、读取结果数据
print response.read()
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 199,175评论 5 466
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 83,674评论 2 376
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 146,151评论 0 328
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,597评论 1 269
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,505评论 5 359
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 47,969评论 1 275
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,455评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,118评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,227评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,213评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,214评论 1 328
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,928评论 3 316
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,512评论 3 302
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,616评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,848评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,228评论 2 344
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 41,772评论 2 339

推荐阅读更多精彩内容