网络爬虫
其实就是一个脚本,一段程序,在模拟浏览器自动的浏览网页,可以自动且批量的采集所需的资源 。
0)发现需要安装requests文件,首先又得先安装pip工具。
参考网址:https://blog.csdn.net/u013637977/article/details/81365320
1)确定目标数据,网站,页面html
2)分析数据加载过程,分析目标数据所对应的url
3)下载数据
4)清洗,处理数据
5)持久化输出数据
分享刚刚模拟写的一段,已经成功的获取到了该网页下的所有没有限制数据: