最近貌似对好看的图着迷,Pixabay爬不到原图不甘心呀。
百度+知乎了下,于是转向pexels,同样一个高人气图片网站。
颜值逆天,画质不输Pixabay,瞬间感觉有了动力?
不到一下午就爬到高清原图,仅用re\requests几个库,随后又做了个下载器。
之前的博文泛泛带过的多,总感觉少了点什么,这次详细记录一下。
</br>
一、过程
1、分析查看
首先点击进入官网 https://www.pexels.com/ ,又见瀑布流,点击查看源码。
看到后面这一串,便可知晓网页有嵌入javascript脚本。由于前面踩过坑,立即用requests库检查了下,发现可以正常返回源码中数据,松了一口气。(爬取网站前先检查一下其反爬策略还是很有必要的,之前就曾遇到过返回乱码或者什么都没有的情况)
</br>
2、获取原图地址
搜索框中输入'water',页面跳转到如下:
查看源代码和首页差不多,接着是图片真实地址链接。我在这里绕了几个弯,具体不叙述。
加上前面pixabay的坑,最后得到经验:直接点击官方下载按钮,从对话框中看到图片真实链接,这是最保险的模式。(因为有时“查看模式”并不能提供真实链接,而且有时也并不能下载得到。)
最后发现真实地址有两种形式,还发现图片有jpg和jpeg两种格式:
我第一次以为链接只有第二种,结果辛辛苦苦匹配正则下载的图确是这样的:
有些图并不能打开,又得到教训:爬虫爬下的图打不开时,有可能链接地址是错的。
对比源码,发现'data-pin-media'和'src'中皆含地址链接数据,用正则提取,再将images换成static即为链接。图片格式有两种,为了方便后面命名,我还是分成了两段来取。用最简单的(.*?),结果又出问题了:
#正则是这样的
pattern=re.compile(r'<img.*?data-pin-media="https://images.pexels.com/photos/(.*?)/(.*?)?w=800.*?>',re.S)
items=re.findall(pattern,result)
每个链接后面都多了个'?',如何去掉字符串最后一位字符,我记得string类是没有像list类的pop()方法的,又考验python基础。不过这个简单啦~
for item in items:
print 'https://static.pexels.com/photos/'+str(item[0])+'/'+str(item[1][:-1])
</br>
3、批量下载
这特么才是关键啊!
网页使用瀑布流模式,是没有页码的,无法像之前那样一页一页遍历。selenium还不熟练,这下如何是好。又倒回去看源码。 然后发现了这一堆!
点击源码中href="/search/water/?page=2",页面跳转
地址栏里链接变成 https://www.pexels.com/search/water/?page=2
熟悉的感觉,这几个图好像刚刚那个页面也出现过。。。
回第一页源码中数了下,一共才发现15张缩略图的链接。
然后全明白了,回page1一数正好吻合。
原来获取图片接口在源码里啊,每一页15张,308就是最大页数了。
接着就简单了,又可以循环遍历,避开瀑布流啦_
试着下载图片,结果又出幺蛾子了:
目测是爬虫被网站发现了,只好将urllib2改为requests的get方式,设置user_agent和header, user_agent还设了随机数,爬完一页time.sleep(3)。
通过。
最后查了一下,有个帖子总结的很好。
</br>
最后用之前Pixabay的模版又做了个下载器。
</br>
二、结果
最后来看下结果
已经存在的图自动跳过。
强迫症患者,终于等到10页图全部下载完才睡。。。
本来准备随便拿个图看效果
结果太大了上传不了。。。。
(比如上图第一排最右边的那个图就有27M)
三、代码
源码我上传到Github了:
https://github.com/LUCY78765580/Python-web-scraping/blob/master/pexels.py
这个爬虫还是可以的,就是速度太慢了了,等学了多线程再回来优化。