soda学python---简单爬糗百

在知乎上看过很多爬虫相关,一直没有动手,现在开始get my hand dirty.
本篇在学习知乎大神xzld的Web crawler with Python - 03.豆瓣电影TOP250基础上,简单爬取了糗百上的笑话。

结果.png

任务目标

利用python爬取糗事百科上的笑话。

任务理解

在做任何爬虫之前,我们首先需要了解一下想要爬取的对象

  • 打开:用火狐浏览器打开糗事百科,打开开发者工具(F12)
  • 查看 :选中任意一条笑话,鼠标右键后点击查看,我们就可以看到该条笑话在HTML中位于的位置
  • 观察 :仔细观察其标签,因为之后我们将根据其标签来定位。

通过观察我们发现,笑话内容位于<div class=content>的<span>标签下。
那么我们的任务即转变为:
在糗事百科的HTML中找到<.div class=content>的<span>标签的文本内容。

源代码截图.png

因此,我们将任务即可分为三部分:

  • 下载:将糗事百科页面的HTML内容下载下来,这部分我们将使用requests包
  • 解析:根据标签查找到文本内容并存储,这部分使用BeautifulSoup包。
  • 输出:将文本内容格式化输出,这部分我们将使用codecs包。

任务进行

环境准备

import warnings 
warnings.filterwarnings('ignore')

import requests
from bs4 import BeautifulSoup
import codecs

引入requests,BeautifulSoup,codecs及warnings包。warnings包主要用来忽略编码过程中的警告提示,我常喜欢把它写在编码前

下载页面

我们使用requests中的get方法来获取页面,

URL="https://www.qiushibaike.com/"
header={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:54.0) Gecko/20100101 Firefox/54.0'}
html=requests.get(URL,headers=header).content

简单介绍代码内容

  1. 第一行代码指定网页
  2. 第二行代码指定请求头User-Agent(表示浏览器类型),用来将爬虫伪装成浏览器。
  3. 第三行利用requests.get().content 获取指定网页源代码。

注意reuqests.get(URL,headers=header)中headers不能省略

网页源代码.png

一般,浏览器在向服务器发送请求的时候,会有一个请求头——User-Agent,它用来标识浏览器的类型.当我们使用requests来发送请求的时候,默认的User-Agent是python-requests/2.8.1(后面的数字可能不同,表示版本号),通常我们需要要将User-Agent伪装成浏览器的,来解决某些网页反爬虫的问题。这是一种简单的反爬虫机制

解析页面

通过上部我们的得到网页源代码,但是看起来非常的乱,毫无头绪,就像一锅东北乱炖。然后通过BeautifulSoup,包如其名,总能把乱糟糟的菜熬成很漂亮的一锅汤,让你很方便的找到需要的内容。

  • 熬汤:通过BeautifulSoup命令间html内容转换为beautifulsoup格式
soup=BeautifulSoup(html)
soup.png

如上图,BeautifulSoup将源代码很好的处理为了标签加内容的格式,非常利于我们来查找内容。

  • 找菜:汤熬好,就可以根据我们给出的标签来找菜了
    joks=soup.find_all('div',attrs={'class':'content'})
    jok_list=[]
    for joks in jokss:
        jok=joks.find('span').getText()
        jok_list.append(jok)
  1. 第一行利用find_all找到所有标签为<div class=content>内容
    图片.png
  2. 第二行创建一个空列表jok_list,用来存储之后找到的笑话
  3. 第三行建立一个循环,利用find依次查找每一个<div class=content>中的<span>标签并获取其中的文本内容,利用append函数存储到jok_list
  • 加菜:当然我们注意到,糗百涉及到翻页。我们还需要解决翻页的问题,这个问题最简单的方法就是找到下一页的链接,再重复之前的步骤即可。
next_page=soup.find('ul',{'class':'pagination'}).find_all('a')[-1]['href']
next_page=URL[:-1]+next_page
next_page.png

点击下一页,查看元素。我们发现下一页的链接再<ul,class=pagination>的最后一个标签<'a'>下。因为使用find只能返回匹配的第一个对象,因此这里我们使用find_all找到所有匹配对象的列表。再通过soup.find('ul',{'class':'pagination'}).find_all('a')[-1]定位到最后一个对象,即包含下一页信息的对象.

注意
以第一页为例得到的结果为* '/8hr/page/2/' ,需要与 URL='https://www.qiushibaike.com/'拼接。但是如果直接连在一起得到结果为
'https://www.qiushibaike.com//8hr/page/2多了一条‘/’因此,使用URL[-1]+next_page才能得到正确的链接。 'https://www.qiushibaike.com/8hr/page/2 *

存储

 codecs.open('joks','wb',encoding='utf-8') as fp:
 fp.write(u'{jok_list}\n'.format(jok_list='\n'.join(jok_llist)))

任务总结

import requests
from bs4 import BeautifulSoup
import warnings 
import codecs
warnings.filterwarnings('ignore')

def download_page(url):
    header={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:54.0) Gecko/20100101 Firefox/54.0'}
    html=requests.get(URL,headers=header).content
    return html

def parsel_html(html):
    soup=BeautifulSoup(html)
    joks=soup.find_all('div',{'class':'content'})
    jok_list=[]
    for joks in jokss:
        jok=joks.find('span').getText()
        jok_list.append(jok)
    next_page=soup.find('ul',{'class':'pagination'}).find_all('a')[-1]['href']
    if next_page:
        return jok_list,URL[:-1]+next_page
    return jok_list,None
def main():
    URL="https://www.qiushibaike.com/"
    with codecs.open('joks','wb',encoding='utf-8') as fp:
        while URL:
            HTML=download_page(URL)
            JOK,URL=parsel_html(HTML)
            fp.write(u'{JOK}\n'.format(JOK='\n'.join(JOK)))
                               
if __name__ == '__main__':
    main()                               
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,456评论 5 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,370评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,337评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,583评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,596评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,572评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,936评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,595评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,850评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,601评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,685评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,371评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,951评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,934评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,167评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,636评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,411评论 2 342

推荐阅读更多精彩内容