什么是爬虫?
请求网站并提取数据的自动化程序
请求
用代码模拟浏览器向网站发出请求。并获取资源
资源是一堆html代码。我们需要的数据就包含在这堆html代码中
提取
提取就是从这堆html代码中获得我们想要的特定的内容。
自动化
程序是自动运行的,代替浏览器不断的发送请求,批量的提取和处理数据
爬虫的基本流程
-
发起请求
通过HTTP库向目标站点发起请求,即发送一个Request,请求可以包含额外的headers等信息,等待服务器响应。
-
获取响应内容
如果服务器能正常响应,会得到一个Response,Response的内容便是所要获取的页面内容,类型可能有HTML,Json字符串,二进制数据(如图片视频)等类型。
-
解析内容
得到的内容可能是HTML,可以用正则表达式、网页解析库进行解析。可能是Json,可以直接转换为Json对象解析,可能是二进制数据,可以做保存或者进一步处理。
-
保存数据
保存形式多样,可以保存为文本,也可以保存到数据库,或者保存为特定格式的的文件。
什么是Request和Response
1.浏览器发送消息给该网站所在的服务器,这个过程叫做HTTP Request。
2.服务器收到浏览器发送的消息后,能够根据浏览器发送消息的内容,做相应处理,然后把消息回传给浏览器。这个过程叫做HTTP Response.
3.浏览器收到服务器的Response信息后,会对信息进行相应处理,然后展示。
Request中包含什么?
1.请求方式--主要有GET、POST两种,还有HEAD、PUT、delete、OPTIONS等
get请求方式的特点--内容直接在url参数中,不安全。
POST要构造FormData
2.请求URL--统一资源定位符
3.请求头--一些配置信息Request headers 最重要的user-Agent:什么类型的浏览器。服务器由此判断是什么浏览器发起的请求。还有cookie,一般爬虫都要构造Request Headers
4.请求体--请求时额外携带的数据,如表单提交时的表单数据。
Response中包含什么内容
1.响应状态---有多种响应状态,如200代表响应状态,如200表示成功,301跳转,404找不到页面,502服务器错误。
2.响应头--如内容类型、内容长度、服务器信息、设置cookie等等
3.响应体--最主要的部分,包含请求资源的内容,如网页的HTML、图片的二进制数据等等
能抓怎么样的数据
1.最常见的HTML文档、Json格式文本等
2.图片等二进制文件,保存为图片格式
import requests
myres = requests.get('https://n.sinaimg.cn/finance/blackcat/pc/heimao.gif')
print(myres.content) #打印返回的内容,是响应体的二进制格式
with open('/var/tmp/1.gif', 'wb') as f:
f.write(myres.content)
f.close()
3.视频格式,也是二进制文件,保存为视频格式
4.其他,只要能请求到的,都能保存
怎样解析
解析方式
1.直接处理,返回字符串,简单处理就可以了。构造简单,返回结构简单
2.Json解析。一般是Json的字符串,转换为Json对象
3.正则表达式,比较普遍的方式
4.BeautifulSoup,更加容易
5.PyQuery
6.XPath
为什么我抓到的和浏览器看到的不同
都是JavaScript调用访问器接口,得到的数据再填充造成的,最后呈现的js渲染完毕之后的代码,和开始拿到的后台请求响应的代码不同。
怎么解决JavaScript渲染的问题?
1.分析Ajax请求
2.Selenium/WebDriver来驱动浏览器来模拟加载一个网页。自动化测试的工具
from selenium import webdriver
from selenium.webdriver.chrome.options import Options
options = Options()
options.add_argument('--no-sandbox')
options.add_argument('--disable-dev-shm-usage')
options.add_argument('--headless')
options.add_argument('--disable-gpu')
driver = webdriver.Chrome(executable_path='/usr/bin/chromedriver', chrome_options=options)
driver.get('https://github.com/')
print driver.title
print(driver.page_source) #这里得到的是渲染过后的HTML页面,可以作为提取用途
driver.quit()
3.Splash--也是模拟js渲染的
4.PyV8、Ghost.py模拟js
怎样保存数据
1.文本
纯文本、Json、Xml等
2.关系型数据库
如MySQL、Oracle、SQL Server等具有结构化表结构形式存储。
3.非关系型数据库
4.二进制文件--图片、音频、视频等特定格式