XPath语法和lxml模块

什么是XPath?

xpath(XML Path Language)是一门在XML和HTML文档中查找信息的语言,可用来在XML和HTML文档中对元素和属性进行遍历。

XPath开发工具

Chrome插件XPath Helper。

Firefox插件Try XPath。

XPath语法

选取节点:

XPath 使用路径表达式来选取 XML 文档中的节点或者节点集。这些路径表达式和我们在常规的电脑文件系统中看到的表达式非常相似。

表达式描述示例结果

nodename选取此节点的所有子节点bookstore选取bookstore下所有的子节点

/如果是在最前面,代表从根节点选取。否则选择某节点下的某个节点/bookstore选取根元素下所有的bookstore节点

//从全局节点中选择节点,随便在哪个位置//book从全局节点中找到所有的book节点

@选取某个节点的属性//book[@price]选择所有拥有price属性的book节点

.当前节点./a选取当前节点下的a标签

谓语:

谓语用来查找某个特定的节点或者包含某个指定的值的节点,被嵌在方括号中。

在下面的表格中,我们列出了带有谓语的一些路径表达式,以及表达式的结果:

路径表达式描述

/bookstore/book[1]选取bookstore下的第一个子元素

/bookstore/book[last()]选取bookstore下的倒数第二个book元素。

bookstore/book[position()<3]选取bookstore下前面两个子元素。

//book[@price]选取拥有price属性的book元素

//book[@price=10]选取所有属性price等于10的book元素

通配符

*表示通配符。

通配符描述示例结果

*匹配任意节点/bookstore/*选取bookstore下的所有子元素。

@*匹配节点中的任何属性//book[@*]选取所有带有属性的book元素。

选取多个路径:

通过在路径表达式中使用“|”运算符,可以选取若干个路径。

示例如下:

//bookstore/book | //book/title

# 选取所有book元素以及book元素下所有的title元素

运算符:

lxml库

lxml 是 一个HTML/XML的解析器,主要的功能是如何解析和提取 HTML/XML 数据。

lxml和正则一样,也是用 C 实现的,是一款高性能的 Python HTML/XML 解析器,我们可以利用之前学习的XPath语法,来快速的定位特定元素以及节点信息。

lxml python 官方文档:http://lxml.de/index.html

Pycharm激活码教程使用更多解释请见:http://vrg123.com

需要安装C语言库,可使用 pip 安装:pip install lxml

基本使用:

我们可以利用他来解析HTML代码,并且在解析HTML代码的时候,如果HTML代码不规范,他会自动的进行补全。示例代码如下:

# 使用 lxml 的 etree 库fromlxmlimportetree text ='''

<div>

    <ul>

        <li class="item-0"><a href="link1.html">first item</a></li>

        <li class="item-1"><a href="link2.html">second item</a></li>

        <li class="item-inactive"><a href="link3.html">third item</a></li>

        <li class="item-1"><a href="link4.html">fourth item</a></li>

        <li class="item-0"><a href="link5.html">fifth item</a> # 注意,此处缺少一个 </li> 闭合标签

    </ul>

</div>

'''#利用etree.HTML,将字符串解析为HTML文档html = etree.HTML(text)# 按字符串序列化HTML文档result = etree.tostring(html) print(result)

输入结果如下:

    first itemsecond itemthird itemfourth itemfifth item

可以看到。lxml会自动修改HTML代码。例子中不仅补全了li标签,还添加了body,html标签。

从文件中读取html代码:

除了直接使用字符串进行解析,lxml还支持从文件中读取内容。我们新建一个hello.html文件:

<!-- hello.html -->

    first itemsecond itemthird itemfourth itemfifth item

然后利用etree.parse()方法来读取文件。示例代码如下:

fromlxmlimportetree# 读取外部文件 hello.htmlhtml = etree.parse('hello.html')result = etree.tostring(html, pretty_print=True)print(result)

输入结果和之前是相同的。

在lxml中使用XPath语法:

获取所有li标签:

fromlxmlimportetree html = etree.parse('hello.html')printtype(html)# 显示etree.parse() 返回类型result = html.xpath('//li') print(result)# 打印<li>标签的元素集合

获取所有li元素下的所有class属性的值:

fromlxmlimportetree html = etree.parse('hello.html') result = html.xpath('//li/@class') print(result)

获取li标签下href为www.baidu.com的a标签:

fromlxmlimportetree html = etree.parse('hello.html') result = html.xpath('//li/a[@href="www.baidu.com"]') print(result)

获取li标签下所有span标签:

fromlxmlimportetree html = etree.parse('hello.html')#result = html.xpath('//li/span')#注意这么写是不对的:#因为 / 是用来获取子元素的,而 <span> 并不是 <li> 的子元素,所以,要用双斜杠result = html.xpath('//li//span') print(result)

获取li标签下的a标签里的所有class:

fromlxmlimportetree html = etree.parse('hello.html') result = html.xpath('//li/a//@class') print(result)

获取最后一个li的a的href属性对应的值:

fromlxmlimportetree html = etree.parse('hello.html') result = html.xpath('//li[last()]/a/@href')# 谓语 [last()] 可以找到最后一个元素print(result)

获取倒数第二个li元素的内容:

fromlxmlimportetree html = etree.parse('hello.html') result = html.xpath('//li[last()-1]/a')# text 方法可以获取元素内容print(result[0].text)

获取倒数第二个li元素的内容的第二种方式:

fromlxmlimportetree html = etree.parse('hello.html') result = html.xpath('//li[last()-1]/a/text()') print(result)

使用requests和xpath爬取电影天堂

示例代码如下:

importrequestsfromlxmlimportetreeBASE_DOMAIN ='http://www.dytt8.net'HEADERS = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 Safari/537.36','Referer':'http://www.dytt8.net/html/gndy/dyzz/list_23_2.html'}defspider():url ='http://www.dytt8.net/html/gndy/dyzz/list_23_1.html'resp = requests.get(url,headers=HEADERS)# resp.content:经过编码后的字符串# resp.text:没有经过编码,也就是unicode字符串# text:相当于是网页中的源代码了text = resp.content.decode('gbk')# tree:经过lxml解析后的一个对象,以后使用这个对象的xpath方法,就可以# 提取一些想要的数据了tree = etree.HTML(text)# xpath/beautifulsou4all_a = tree.xpath("//div[@class='co_content8']//a")forainall_a:        title = a.xpath("text()")[0]        href = a.xpath("@href")[0]ifhref.startswith('/'):            detail_url = BASE_DOMAIN + href            crawl_detail(detail_url)breakdefcrawl_detail(url):resp = requests.get(url,headers=HEADERS)    text = resp.content.decode('gbk')    tree = etree.HTML(text)    create_time = tree.xpath("//div[@class='co_content8']/ul/text()")[0].strip()    imgs = tree.xpath("//div[@id='Zoom']//img/@src")# 电影海报cover = imgs[0]# 电影截图screenshoot = imgs[1]# 获取span标签下所有的文本infos = tree.xpath("//div[@id='Zoom']//text()")forindex,infoinenumerate(infos):ifinfo.startswith("◎年  代"):            year = info.replace("◎年  代","").strip()ifinfo.startswith("◎豆瓣评分"):            douban_rating = info.replace("◎豆瓣评分",'').strip()            print(douban_rating)ifinfo.startswith("◎主  演"):# 从当前位置,一直往下面遍历actors = [info]forxinrange(index+1,len(infos)):                actor = infos[x]ifactor.startswith("◎"):breakactors.append(actor.strip())            print(",".join(actors))if__name__ =='__main__':    spider()

chrome相关问题:

在62版本(目前最新)中有一个bug,在页面302重定向的时候不能记录FormData数据。这个是这个版本的一个bug。详细见以下链接:https://stackoverflow.com/questions/34015735/http-post-payload-not-visible-in-chrome-debugger。

在金丝雀版本中已经解决了这个问题,可以下载这个版本继续,链接如下:https://www.google.com/chrome/browser/canary.html

作业:

使用requests和xpath爬取腾讯招聘网信息。要求为获取每个职位的详情信息。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,033评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,725评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,473评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,846评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,848评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,691评论 1 282
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,053评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,700评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,856评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,676评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,787评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,430评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,034评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,990评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,218评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,174评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,526评论 2 343

推荐阅读更多精彩内容