import requests
import regex
for m in range(31):
url ='https://www.dy2018.com/html/gndy/dyzz/index_'+str(m)+'.html'
html = requests.get(url)
html.encoding ='gb2312' #设定网页编码类型
data = regex.findall('<a href="(.*?)" class="ulink"', html.text)
# print(data)
for n in data:
url2 ='https://www.dy2018.com'+n
html2 = requests.get(url2)
html2.encoding ='gb2312'
ftp = regex.findall('<a href="(.*?)">.*?</a></td>',html2.text)
# print(ftp)
#写入文件
with open(r'C:\Users\Administrator\Desktop\dy\dytt.txt', 'a',encoding='gb2312') as f:
f.write(ftp[0]+'\n')
爬虫练习:爬取电影天堂下载链接
©著作权归作者所有,转载或内容合作请联系作者
- 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
- 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
- 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
推荐阅读更多精彩内容
- 作业分析 爬取阳光电源网站的下载链接 按照指导老师说的要分为三步走 第一步:确定爬取的内容(电影页的前11个分类)...
- 一、项目描述 引言:在电影天堂下电视剧的下伙伴有木有发现,它没有提供批量下载功能,美剧英剧还好,10集左右,我就多...
- 最近有一个goood idea,想把电影网站中能用迅雷下载的链接用程序给爬下来,分别对应:电影名称 下载链接 ...
- 项目地址:https://github.com/Kulbear/All-IT-eBooks-Spider喜欢欢迎S...