学习python一年了.先回首一下现在的技能树吧.
用一句话来说的话,就是可以建立一个自动采集实时更新的看起来不太像垃圾站的垃圾站.
但是看起来简单,要掌握多少知识?
django (做网站的基础)
1.1 liunx环境部署 (需要了解基础知识)
2.2 Vim的使用 (liunx上没有编辑器,所以要掌握基础的vim)
3.3 mysql的使用(做网站和数据分析都需要)爬虫 ( 爬取数据需要)
2.1 requests,等爬虫库的使用
2.2 scrapy的使用(更加高效的爬虫)
2.3 xpath,css选择器的使用(快速定位网页)
2.4 自动化测试 ( 爬取一些比较难爬的网站 )数据分析 (对爬取的数据进行整理分析)
3.1 pandas的使用
3.2 mysql深度使用
3.3 机器学习实战
这其中还不包含web前端知识(因为现在还没入门,以及js等网页编程等)
也许再一年以后再来看的话可能会觉得有所感悟吧. 当时在知乎上的提问,刚入门python的时候提的问题,都感觉好像很幼稚的感觉.////
其实无知一点是比较好,
为什么?
要是上来就跟我说 要做这样一个简单的东西,要学习这么多技能,可能我也就放弃了~~
但是也奇怪,这些饿知识点好像都串联起来了~
之前没有想过要这样做~~当时学爬虫只是单纯的为了做爬虫 学django,仅仅是单纯的为了健个网站 学数据分析,也仅仅是用于电商,没想到对于seo也看i有用~~ \ 路还是比较长,无知的学下去~~
总会连成线!