python爬虫——爬取小说 | 探索白子画和花千骨的爱恨情仇

1.Beautiful Soup

1.Beautifulsoup 简介

此次实战从网上爬取小说,需要使用到Beautiful Soup。

Beautiful Soup为python的第三方库,可以帮助我们从网页抓取数据。

它主要有如下特点:

1.Beautiful Soup可以从一个HTML或者XML提取数据,它包含了简单的处理、遍历、搜索文档树、修改网页元素等功能。可以通过很简短地代码完成我们地爬虫程序。

2.Beautiful Soup几乎不用考虑编码问题。一般情况下,它可以将输入文档转换为unicode编码,并且以utf-8编码方式输出,

2.Beautiful Soup安装

win命令行下:

pipinstall beautifusoup4

3.Beautiful Soup基础

大家可以参考文档来学习(中文版的哦):

[http://beautifulsoup.readthedocs.io/zh_CN/latest/#id8]

对于本次爬虫任务,只要了解以下几点基础内容就可以完成:

1.Beautiful Soup的对象种类:

Tag

Navigablestring

BeautifulSoup

Comment

2.遍历文档树:find、find_all、find_next和children

3.一点点HTML和CSS知识(没有也将就,现学就可以)

在学习的路上,光是看书闭门造车是不行的。所以我邀请你加入我创建的QQ群,与很多学习者一起相互交流,共同进步。 群号:923414804。入群后可免费获取更多的学习资料,学习资料可以领取包括不限于Python实战演练、PDF电子文档、面试集锦、学习资料等。更有大牛指导,期待你的加入。

2.爬取小说花千骨

1.爬虫思路分析

本次爬取小说的网站为136书屋。

先打开花千骨小说的目录页,是这样的。


我们的目的是找到每个目录对应的url,并且爬取其中地正文内容,然后放在本地文件中。

2.网页结构分析

首先,目录页左上角有几个可以提高你此次爬虫成功后成就感的字眼:暂不提供花千骨txt全集下载。

继续往下看,发现是最新章节板块,然后便是全书的所有目录。我们分析的对象便是全书所有目录。点开其中一个目录,我们便可以都看到正文内容。


按F12打开审查元素菜单。可以看到网页前端的内容都包含在这里。


我们的目的是要找到所有目录的对应链接地址,爬取每个地址中的文本内容。

有耐心的朋友可以在里面找到对应的章节目录内容。有一个简便方法是点击审查元素中左上角箭头标志的按钮,然后选中相应元素,对应的位置就会加深显示。


这样我们可以看到,每一章的链接地址都是有规则地存放在<li>中。而这些<li>又放在<div id="book_detail" class="box1">中。


我不停地强调“我们的目的”是要告诉大家,思路很重要。爬虫不是约pao,蒙头就上不可取。

3.单章节爬虫


刚才已经分析过网页结构。我们可以直接在浏览器中打开对应章节的链接地址,然后将文本内容提取出来。


我们要爬取的内容全都包含在这个

里面。

代码整理如下:

from urllibimport requestfrom bs4import BeautifulSoupif __name__ =='__main__':# 第8章的网址    url ='http://www.136book.com/huaqiangu/ebxeew/'    head = {}# 使用代理    head['User-Agent'] ='Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03D) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.166  Safari/535.19'    req = request.Request(url, headers = head)    response = request.urlopen(req)    html = response.read()# 创建request对象    soup = BeautifulSoup(html,'lxml')# 找出div中的内容    soup_text = soup.find('div', id ='content')# 输出其中的文本print(soup_text.text)


运行结果如下:


这样,单章节内容爬取就大功告成了。

4.小说全集爬虫

单章节爬虫我们可以直接打开对应的章节地址解析其中的文本,全集爬虫我们不可能让爬虫程序在每章节网页内中跑一遍,如此还不如复制、粘贴来的快。

我们的思路是先在目录页中爬取所有章节的链接地址,然后再爬取每个链接对应的网页中的文本内容。说来,就是比单章节爬虫多一次解析过程,需要用到Beautiful Soup遍历文档树的内容。

1.解析目录页

在思路分析中,我们已经了解了目录页的结构。所有的内容都放在一个<div id="book_detail" class="box1">中。


这儿有两个一模一样的

第一个

包含着最近更新的章节,第二个
包含着全集内容。

请注意,我们要爬取的是第二个

中的内容。

代码整理如下:

from urllibimport requestfrom bs4import BeautifulSoupif __name__ =='__main__':# 目录页    url ='http://www.136book.com/huaqiangu/'    head = {}    head['User-Agent'] ='Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03D) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.166  Safari/535.19'    req = request.Request(url, headers = head)    response = request.urlopen(req)    html = response.read()# 解析目录页    soup = BeautifulSoup(html,'lxml')# find_next找到第二个

    soup_texts = soup.find('div', id ='book_detail', class_='box1').find_next('div')# 遍历ol的子节点,打印出章节标题和对应的链接地址for linkin soup_texts.ol.children:if link !='\n':print(link.text +':  ', link.a.get('href'))


执行结果如图:


2.爬取全集内容

将每个解析出来的链接循环代入到url中解析出来,并将其中的文本爬取出来,并且写到本地F:/huaqiangu.txt中。

代码整理如下:

from urllib import requestfrom bs4 import BeautifulSoupif __name__ =='__main__':    url ='http://www.136book.com/huaqiangu/'    head = {}    head['User-Agent'] ='Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03D) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.166  Safari/535.19'    req = request.Request(url, headers = head)    response = request.urlopen(req)    html = response.read()    soup = BeautifulSoup(html,'lxml')    soup_texts = soup.find('div', id ='book_detail', class_='box1').find_next('div')    # 打开文件    f =open('F:/huaqiangu.txt','w')    # 循环解析链接地址for linkin soup_texts.ol.children:if link !='\n':            download_url = link.a.get('href')            download_req = request.Request(download_url, headers = head)            download_response = request.urlopen(download_req)            download_html = download_response.read()            download_soup = BeautifulSoup(download_html,'lxml')            download_soup_texts = download_soup.find('div', id ='content')            # 抓取其中文本            download_soup_texts = download_soup_texts.text            # 写入章节标题            f.write(link.text +'\n\n')            # 写入章节内容            f.write(download_soup_texts)            f.write('\n\n')    f.close()


执行结果显示 [Finished in 32.3s] 。

打开F盘查看花千骨文件。

爬虫成功。备好纸巾,快快去感受尊上和小骨的虐恋吧。

5.总结

代码还有很多改进的地方。例如文本中包含广告的js代码可以去除,还可以加上爬虫进度显示等等。实现这些功能需要包含正则表达式和os模块知识,就不多说了,大家可以继续完善。

码字辛苦,码代码费神,文字和代码同码更是艰辛无比。如果您觉得文章有那么一丢丢价值,请不要吝啬您的赞赏。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 193,968评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,682评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,254评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,074评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 60,964评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,055评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,484评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,170评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,433评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,512评论 2 308
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,296评论 1 325
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,184评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,545评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,880评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,150评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,437评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,630评论 2 335

推荐阅读更多精彩内容

  • 声明:本文讲解的实战内容,均仅用于学习交流,请勿用于任何商业用途! 一、前言 强烈建议:请在电脑的陪同下,阅读本文...
    Bruce_Szh阅读 12,648评论 6 28
  • Python爬虫入门(urllib+Beautifulsoup) 本文包括:1、爬虫简单介绍2、爬虫架构三大模块3...
    廖少少阅读 9,721评论 0 6
  • *六月毕业时和男朋友订婚、结婚、跨国搬家、定居、举办婚礼的朋友,终于在九月份第一次回到了我的身边。三个月的分离终究...
    左边有回响阅读 221评论 0 0
  • 可以会把生活中常见的事物和句式都用英语都列出来,日后遇到了就重复。不过要注意的是学英语其次,陪伴孩子才是最主要的!...
    县爱心阅读 170评论 0 0
  • 做一件事情,不能只是停留在完成,重点要看能力是不是有所提升!弄清楚有钱和值钱的区别! 001顺利度过平台期,保持好...
    梁明月创业笔记阅读 154评论 0 4