Python学习笔记-爬虫篇

requests库

安装:

$ pip3 install requests

基本使用:

代码:

import requests

url = 'http://www.httpbin.org/' # 请求路径
data = {'a': 'aa', 'b': 'bb'} # 请求参数

# get请求
response = requests.get(url + 'get', data)
print(response.text) # 输出请求返回的内容
# post请求
response = requests.post(url + 'post', data)
print(response.json()) # 输出请求返回的内容并转换为JSON

控制台:

配合正则表达式(爬取图片并保存):

代码:

import os
import shutil
import re
import requests

abspath = os.path.abspath('.')  # 本地绝对路径
keyword = '城市摄影'  # 搜索关键字
url = 'https://image.baidu.com/search/index?tn=baiduimage&ipn=r&ct=201326592&cl=2&lm=-1&st=-1&fm=result&fr=&sf=1&fmq=1594807659507_R&pv=&ic=&nc=1&z=&hd=&latest=&copyright=&se=1&showtab=0&fb=0&width=&height=&face=0&istype=2&ie=utf-8&sid=&word=' + keyword

# 下载图片
# downloadUrl[String]: 下载路径
# savePath[String]: 保存路径
def downloadImg(downloadUrl, savePath):
    print('开始下载', downloadUrl)
    response = requests.get(downloadUrl, stream=True)  # 下载
    if response.status_code == 200:  # 下载成功
        with open(savePath, 'wb') as f:  # 打开文件
            response.raw.deconde_content = True
            shutil.copyfileobj(response.raw, f)  # 写入文件

# 爬取图片信息
# url[String]:爬取地址
def craw(url):
    # 请求头部信息
    headers = {
        'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',
        'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36',
    }
    response = requests.get(url, headers=headers)  # 请求url
    # 正则表达式
    pattern = re.compile(
        r'{"thumbURL":"(.*?)".*?"middleURL":"(.*?)".*?"largeTnImageUrl":"(.*?)".*?"fromURL":"(.*?)".*?"fromPageTitle":"(.*?)".*?}',
        re.S)
    result = re.findall(pattern, response.text)  # 根据正则表达式获取图片信息
    for x in result:
        thumbURL, middleURL, largeTnImageUrl, fromURL, fromPageTitle = x
        downloadUrl = ''
        if largeTnImageUrl != '': # 高质量图片路径
            downloadUrl = largeTnImageUrl
        elif middleURL != '': # 中等质量图片路径
            downloadUrl = middleURL
        elif thumbURL != '': # 缩略图路径
            downloadUrl = thumbURL
        # 设置图片标题
        title = re.sub(r'<.*?>|\\|\/|\.$', '', fromPageTitle) # 清除斜线/html标签/结尾的.
        # 获取图片扩展名
        ext = re.search(r'.[a-z]*$', downloadUrl).group(0)
        # 拼接保存路径
        savePath = os.path.join(abspath, 'files', title + ext)
        # 下载
        downloadImg(downloadUrl, savePath)

# 开始爬取图片
craw(url)

控制台:

下载的文件:

BeatifulSoup库

安装:

# 安装BeatifulSoup库
pip3 install bs4
# 安装lxml解析包
pip3 install lxml

基本使用:

from bs4 import BeautifulSoup
import requests

response = requests.get(url)  # 请求url
soup = BeautifulSoup(response.text, 'lxml') # 解析请求返回的内容

soup.title # 获取title标签
soup.title.string # 获取title标签的内容
soup.p['class'] # 获取p标签的class属性值
soup.find(id="link1") # 获取id为link1的标签
soup.find_all('a') # 获取所有a标签
soup.find('table', {'data-name': 'userList'} # 获取属性data-name为userList的table标签
for link in soup.find_all('a'): # 遍历所有a标签
    print(link.get('href')) # 输出a标签的href属性

爬取新闻:

代码:

from bs4 import BeautifulSoup
import requests

page = 1 # 页码
url = 'http://www.cncga.org/news.asp?page='+ str(page) +'&types=3' # 请求地址

headers = {
  'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',
  'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36',
}
response = requests.get(url, headers=headers)  # 请求url
response.encoding = 'gb2312' # 设置编码
soup = BeautifulSoup(response.text, 'lxml') # 解析返回内容

soup_table = soup.find('table', {'width': '760'}) # 找到新闻列表的容器
    for a in soup_table.find_all('a', {'class': 'a2'}): # 获取所有的a标签并遍历
        print(a.string, a.get('href')) # 输出标题和链接地址

控制台:

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,319评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,801评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,567评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,156评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,019评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,090评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,500评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,192评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,474评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,566评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,338评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,212评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,572评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,890评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,169评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,478评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,661评论 2 335

推荐阅读更多精彩内容