requests,selenium,xpath,bs4

request:
Requests 继承了urllib的所有特性。Requests支持HTTP连接保持和连接池,支持使用cookie保持会话,支持文件上传,支持自动确定响应内容的编码,支持国际化的URL和 POST 数据自动编码。
requests 的底层实现其实就是 urllib
使用response.text 时,Requests 会基于 HTTP 响应的文本编码自动解码响应内容,大多数 Unicode 字符集都能被无缝地解码。
使用response.content 时,返回的是服务器响应数据的原始二进制字节流,可以用来保存图片等二进制文件。

import requests
params = {'wd': '孙悟空'}
url = 'http://www.baidu.com/s?'
headers = {
    'User-Agent': 'Mozilla / 5.0(X11;Ubuntu;Linuxx86_64;rv: 54.0) Gecko / 20100101Firefox / 54.0'
}
# 发起get请求
response = requests.get(url=url, headers=headers, params=params)

# 返回解码后内容
content = response.text
# 获取
print(content)

# 返回二进制
content = response.content.decode()
# 返回响应码
print(response.status_code)
# 请求头
print(response.request.headers)
# 返回当前编码格式
print(response.encoding)
# 查看响应码
print(response.status_code)
with open('baidu.html', 'w') as f:
    f.write(content)

对于 POST 请求来说,我们一般需要为它增加一些参数。那么最基本的传参方法可以利用 data 这个参数。

import requests

req_url = "http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule&smartresult=ugc&    sessionFrom=null"

#分析表单数据
formdata = {
    'i': '你好',
    'from': 'AUTO',
    'to': 'AUTO',
    'smartresult': 'dict',
    'client': 'fanyideskweb',
    'doctype': 'json',
    'version': '2.1',
    'keyfrom': 'fanyi.web',
    'action': 'FY_BY_CLICKBUTTION',
    'typoResult': 'false',
}

#添加请求头
req_header = {
    'User-Agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko)     Chrome/67.0.3396.99 Safari/537.36'}

response = requests.post(
req_url, 
data = formdata, 
headers = req_header)

#print (response.text)
# 如果是json文件可以直接显示
print (response.json())

xpath:
XPath (XML Path Language) 是一门在 XML 文档中查找信息的语言,可用来在 XML 文档中对元素和属性进行遍历。

import requests
import re
import time
import urllib.parse
from lxml import etree


class MeiNv():
    def __init__(self):
       self.url = 'http://www.tieba.baidu.com/category/40076/?page='

        self.headers = {
        'User-Agent': 'Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:54.0) Gecko/20100101 Firefox/54.0'

    }

def loadpage(self, url):
    response = requests.get(url=self.url)
    html = response.content.decode('utf-8')

    with open('baidu.html', 'w') as f:
        f.write(html)

    #html转成xml
    content = etree.HTML(html)
    # print(content)
    url_list = content.xpath(
        '//div[@class="threadlist_lz clearfix"]/div[@class="threadlist_title pull_left j_th_tit "]/a/@href'
    )
    # print(url_list)
    for detail_url in url_list:
        full_url = 'http://tieba.baidu.com' + detail_url
        self.detail(full_url)


# 详情页
def detail(self, url):
    response = requests.get(url=url)
    html = response.content.decode('utf-8')
    content = etree.HTML(html)
    img_list = content.xpath(
        '//img[@class="BDE_Image"]/@src'
    )
    for img in img_list:
        self.download(img)


#下载
def download(self, url):
    response = requests.get(url=url)
    #无需decode
    self.save(response.content, url)

# 保存
def save(self, content, img_url):
    filename = 'tieba/' + img_url[-10:] + '.jpg'
    print('正在下载' + filename)
    with open(filename, 'wb') as f:
        f.write(content)

def main(self):
    kw = input('请输入网址')
    start = int(input('输入起始页'))
    end = int(input('输入终止页'))
    for i in range(start, end + 1):
        #拼接
        full_url = self.url + 'f?' + 'kw=' + kw + '&' + 'pn=' + str((i-1)*50)
        self.loadpage(full_url)


if __name__ == '__main__':
    mn = MeiNv()
    mn.main()

bs4:
和 lxml 一样,Beautiful Soup 也是一个HTML/XML的解析器,主要的功能也是如何解析和提取 HTML/XML 数据。
lxml 只会局部遍历,而Beautiful Soup 是基于HTML DOM的,会载入整个文档,解析整个DOM树,因此时间和内存开销都会大很多,所以性能要低于lxml。
BeautifulSoup 用来解析 HTML 比较简单,API非常人性化,支持CSS选择器、Python标准库中的HTML解析器,也支持 lxml 的 XML解析器。

import requests
from bs4 import BeautifulSoup
import urllib.parse
import jsonpath
import json
import re
class QiDianSpider():
    def __init__(self):
        self.url = 'https://www.address.com/all?page=1'
        self.headers = {
            'User-Agent': 'Mozilla / 5.0(X11;Ubuntu;Linuxx86_64;rv: 54.0) Gecko / 20100101Firefox / 54.0'
        }


def loadpage(self, url):
    response = requests.get(url=url, headers=self.headers)
    bs = BeautifulSoup(response.text, 'lxml')
    li_list = bs.select('ul[class="all-img-list cf"] li')
    for li in li_list:
        title = li.select('div[class="book-mid-info"] h4 a')[0].get_text()
        href = urllib.parse.urljoin(response.url, li.select('div[class="book-mid-info"] h4 a')[0].get('href'))
        author = li.select('div[class="book-mid-info"] p a')[0].get_text()
        type1 = li.select('div[class="book-mid-info"] p a')[1].get_text()
        type2 = li.select('div[class="book-mid-info"] p a')[2].get_text()
        id = re.search('(\d+)',href).group(1)
        print(id)


        dict = {
            'title':title,
            'author':author,
            'type':type1+'.'+type2,
            'href':href,
            'id':id
        }
    #     print(dict)
        self.loaddetail(id, dict)


def loaddetail(self, bookid, dict):
    response = requests.get(url='https://book.qidian.com/ajax/book/category?_csrfToken=asYDuKBW3fwHjeBdQNcX1GFeE2B9KcEe6dJyt&bookId='+bookid, headers=self.headers)
    html = response.content.decode('utf-8')

    vs = jsonpath.jsonpath(json.loads(html), '$..vs')
    count = sum(jsonpath.jsonpath(json.loads(html), '$..cnt'))
    dict['vs'] = vs[0]
    with open('qidian.html', 'w') as f:
        f.write(json.dumps(dict,ensure_ascii=False)+'\n')



def start(self):
    self.loadpage(self.url)

if __name__ == '__main__':
    qds = QiDianSpider()
    qds.start()

selenium:
Selenium是一个Web的自动化测试工具,最初是为网站自动化测试而开发的,类型像我们玩游戏用的按键精灵,可以按指定的命令自动操作,不同是Selenium 可以直接运行在浏览器上,它支持所有主流的浏览器(包括PhantomJS这些无界面的浏览器)。 Selenium 可以根据我们的指令,让浏览器自动加载页面,获取需要的数据,甚至页面截屏,或者判断网站上某些动作是否发生。
Selenium 自己不带浏览器,不支持浏览器的功能,它需要与第三方浏览器结合在一起才能使用。但是我们有时候需要让它内嵌在代码中运行,所以我们可以用一个叫 PhantomJS 的工具代替真实的浏览器。

from selenium import webdriver

driver = webdriver.Chrome(executable_path='/home/hu/下载/chromedriver')
driver.get('https://www.baidu.com/')
driver.save_screenshot('baidu.png')
with open('baidu.html', 'w') as f:
f.write(driver.page_source)

PhantomJS
PhantomJS 是一个基于Webkit的“无界面”(headless)浏览器,它会把网站加载到内存并执行页面上的 JavaScript,因为不会展示图形界面,所以运行起来比完整的浏览器要高效。
如果我们把 Selenium 和 PhantomJS 结合在一起,就可以运行一个非常强大的网络爬虫了,这个爬虫可以处理 JavaScrip、Cookie、headers,以及任何我们真实用户需要做的事情。

from selenium import webdriver

browseDriver = webdriver.Phantomjs(executable_path="Phantomjs的驱动路径")
browseDriver.get('https://www.baidu.com')
print(browseDriver.page_source)
print(browseDriver.current_url)
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,491评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,856评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,745评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,196评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,073评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,112评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,531评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,215评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,485评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,578评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,356评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,215评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,583评论 3 299
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,898评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,174评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,497评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,697评论 2 335

推荐阅读更多精彩内容

  • PS:文章摘自下面这位大神的链接。 作者:AlexMercer313 链接:https://www.jianshu...
    萧十一郎456阅读 1,255评论 0 2
  • 上一篇:8.Urllib库基本使用下一篇:10.正则表达式基础 requests是python实现的最简单易用的H...
    在努力中阅读 3,313评论 2 11
  • Requests快速上手 迫不及待了吗?本页内容为如何入门 Requests 提供了很好的指引。其假设你已经安装了...
    小娟_bb93阅读 1,459评论 0 3
  • 上网原理 1、爬虫概念 爬虫是什麽? 蜘蛛,蛆,代码中,就是写了一段代码,代码的功能从互联网中提取数据 互联网: ...
    riverstation阅读 8,004评论 1 2
  • 沉沉的夜 窒息灵魂的意境 月亮 早已成为云层的奴隶 在夜风中 寻找远方的思念 一缕花香 把孤独伸延 一步一步 走进...
    熊志勇阅读 205评论 1 3