- 爬虫:请求网站并提取数据的自动化程序。
- 4个基本流程:发起请求,获取响应内容,解析内容,保存数据。
1、请求方式:主要有GET、POST两种类型,另外还有HEAD、PUT、DELETE、OPTIONS等。
2、请求URL:URL全称为统一资源定位符,如一个网页文档、一张图片、一个视频等都可以用URL唯一来确定。
3、请求头:包含请求时的头部信息,如User-Agent、Host、Cookies等信息。
4、请求体:请求时额外携带的数据,如表单提交时的表单数据。 - Response
1、响应状态:200代表成功、301跳转、404找不到页面、502服务器错误。
2、响应头:如内容类型、内容长度、服务器信息、设置Cookie等等。
3、响应体:最主要的部分,包含了请求资源的内容 ,如网页HTML、图片二进制数据等。 - 抓取的数据:
1、网页文本:如HTML文档,Json格式文本等。
2、图片:获取的是二进制文件,保存为图片格式。
3、同为二进制文件,保存为视频格式即可。
4、只要是能请求到的,都能获取。 - 解析方式:
1、直接处理;
2、Json解析;
3、正则表达式;
4、BeautifulSoup;
5、PyQuery;
6、XPath。 - 解决JavaScript渲染问题:
1、分析Ajax请求;
2、Selenium/WebDriver(驱动浏览器来加载一个网页)
3、Splash;
4、PyV8、GHost.py。 - 保存数据:
1、文本:纯文本,Json、Xml等;
2、关系型数据库:如mysql、oracle、SQL server等具有结构化表结的形式存储;
3、非关系型数据库:如MongoDB、Redis等key-value形式存储;
4、二进制文件:如图片、视频、音频等等直接保存成特定格式即可。
- Python内置的HTTP请求库:Urllib
1、urllib.request 请求模块
2、urllib.error 异常处理模块
3、urllib.parse url解析模块
4、urllib.robotparser robots.txt解析模块
- Requests库
1、其用python语言编写,基于urllib,采用Apache2 Licensed 开源协议的HTTP库。
- 正则表达式
1、非python独有,re模块实现
- BeautifulSoup库
1、灵活又方便的网页解析库,处理高效,支持多种解析器,利用它不用编写正则表达式即可方便地实现网页信息的提取。