我们已经成功得到了title,但是再仔细看看,还能发现更简便的方法。
Gumtree为标签添加了属性,就是itemprop=name。所以XPath可以简化为//*[@itemprop="name"][1]/text()。在XPath中,切记数组是从1开始的,所以这里[]里面是1。
选择itemprop="name"这个属性,是因为Gumtree用这个属性命名了许多其他的内容,比如“You may also like”,用数组序号提取会很方便。
接下来看价格。价格在HTML中的位置如下:
<strong class="ad-price txt-xlarge txt-emphasis" itemprop="price">£334.39pw</strong>
我们又看到了itemprop="name"这个属性,XPath表达式为//*[@itemprop="price"][1]/text()。验证一下:
>>> response.xpath('//*[@itemprop="price"][1]/text()').extract()[u'\xa3334.39pw']
注意Unicode字符(£符号)和价格350.00pw。这说明要对数据进行清理。在这个例子中,我们用正则表达式提取数字和小数点。使用正则方法如下:
>>> response.xpath('//*[@itemprop="price"][1]/text()').re('[.0-9]+')[u'334.39']
假如这就是我们要提取的所有信息,整理如下:
目标XPath表达式
title//*[@itemprop="name"][1]/text()
Example value: [u'set unique family well']
Price//*[@itemprop="price"][1]/text()
Example value (using re()):[u'334.39']
description//*[@itemprop="description"][1]/text()
Example value: [u'website court warehouse\r\npool...']
Address//*[@itemtype="http://schema.org/Place"][1]/text()
Example value: [u'Angel, London']
Image_URL//*[@itemprop="image"][1]/@src
Example value: [u'../images/i01.jpg']
这是我们的第一段代码,要注意Python中是使用空格缩进的。每个字段名之前都有四个空格或是一个tab。如果一行有四个空格,另一行有三个空格,就会报语法错误。如果一行是四个空格,另一行是一个tab,也会报错。空格符指定了这些项目是在PropertiesItem下面的。其他语言有的用花括号{},有的用begin – end,Python则使用空格。
import scrapy
class BasicSpider(scrapy.Spider):
name ="basic"
allowed_domains = ["web"]
start_URL = (
'http://www.web/',
)
def parse(self, response):
pass
import命令可以让我们使用Scrapy框架。然后定义了一个类BasicSpider,继承自scrapy.Spider。继承的意思是,虽然我们没写任何代码,这个类已经继承了Scrapy框架中的类Spider的许多特性。这允许我们只需写几行代码,就可以有一个功能完整的爬虫。然后我们看到了一些爬虫的参数,比如名字和抓取域字段名。最后,我们定义了一个空函数parse(),它有两个参数self和response。通过self,可以使用爬虫一些有趣的功能。response看起来很熟悉,它就是我们在Scrapy shell中见到的响应。
这是从这个页面抓取的PropertiesItem。这很好,因为Scrapy就是围绕Items的概念构建的,这意味着我们可以用pipelines填充丰富项目,或是用“Feed export”导出保存到不同的格式和位置。
保存到文件
试运行下面:
不用我们写任何代码,我们就可以用这些格式进行存储。Scrapy可以自动识别输出文件的后缀名,并进行输出。这段代码中涵盖了一些常用的格式。CSV和XML文件很流行,因为可以被Excel直接打开。JSON文件很流行是因为它的开放性和与JavaScript的密切关系。JSON和JSON Line格式的区别是.json文件是在一个大数组中存储JSON对象。这意味着如果你有一个1GB的文件,你可能必须现在内存中存储,然后才能传给解析器。相对的,.jl文件每行都有一个JSON对象,所以读取效率更高。
不在文件系统中存储生成的文件也很麻烦。利用下面例子的代码,你可以让Scrapy自动上传文件到FTP或亚马逊的S3 bucket。
$ scrapy crawl basic -o"ftp://user:pass@ftp.scrapybook.com/items.json "
$ scrapy crawl basic -o"s3://aws_key:aws_secret@scrapybook/items.json"
注意,证书和URL必须按照主机和S3更新,才能顺利运行。
另一个要注意的是,如果你现在使用scrapy parse,它会向你显示被抓取的项目和抓取中新的请求:
当出现意外结果时,scrapy parse可以帮你进行debug,你会更感叹它的强大。
清洗——项目加载器和杂务字段
恭喜你,你已经创建成功一个简单爬虫了!让我们让它看起来更专业些。
我们使用一个功能类,ItemLoader,以取代看起来杂乱的extract()和xpath()。我们的parse()进行如下变化:
defparse(self, response):
l = ItemLoader(item=PropertiesItem(), response=response)
l.add_xpath('title','//*[@itemprop="name"][1]/text()')
l.add_xpath('price','.//*[@itemprop="price"]''[1]/text()', re='[,.0-9]+')
l.add_xpath('description','//*[@itemprop="description"]''[1]/text()')
l.add_xpath('address','//*[@itemtype=''"http://schema.org/Place"][1]/text()')
l.add_xpath('image_URL','//*[@itemprop="image"][1]/@src')
returnl.load_item()
是不是看起来好多了?事实上,它可不是看起来漂亮那么简单。它指出了我们现在要干什么,并且后面的加载项很清晰。这提高了代码的可维护性和自文档化。(自文档化,self-documenting,是说代码的可读性高,可以像文档文件一样阅读)