Python爬虫之《电影天堂》电影详情+下载地址爬取

纪念自学Python以来,自己成功写出的第一个爬虫程序......

import requests
from lxml import etree

BASE_DOMAIN = 'http://dytt8.net'
HEADERS = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) '
                  'Chrome/68.0.3440.106 Safari/537.36',
    'Referer': 'http://dytt8.net/html/gndy/dyzz/list_23_2.html'
}


def get_detail_urls(url):
    """
    获取电影天堂一个页面中的所有电影详情页面
    :param url: 要获取的地址(电影天堂首页或第n页)
    :return: 返回一个带有所有详情页面地址的列表
    """
    # url = 'http://dytt8.net/html/gndy/dyzz/list_23_1.html'
    response = requests.get(url, headers=HEADERS)
    # gbk会报错,忽略错误进行解码
    text = response.content.decode('gbk', "ignore")
    html = etree.HTML(text)
    details_urls = html.xpath("//table[@class='tbspan']//a/@href")
    all_details_urls = []
    for details_url in details_urls:
        if 'index.html' in details_url:
            pass
        else:
            link = BASE_DOMAIN + details_url
            all_details_urls.append(link)
    return all_details_urls


def parse_detail_page(url):
    """
    解析电影详情页面的信息
    :param url: 具体电影的详细地址
    :return: 返回解析好的电影信息字典
    """
    movies = {}
    response = requests.get(url, headers=HEADERS)
    text = response.content.decode('gbk', "ignore")
    html = etree.HTML(text)
    title = html.xpath("//h1/font[@color='#07519a']/text()")[0]  # 获取标题
    zoom_element = html.xpath("//div[@id='Zoom']")[0]  # 获取到zoom元素
    imgs = zoom_element.xpath(".//img/@src")  # 获取海报和电影截图
    movie_poster = imgs[0]  # 获取到电影海报
    if len(imgs) > 1:
        movie_screenshot = zoom_element.xpath(".//img/@src")[1]  # 获取到电影截图
    else:
        movie_screenshot = '没有电影截图'
    movie_infos = zoom_element.xpath(".//text()")
    movie_download_url = zoom_element.xpath(".//td[@bgcolor='#fdfddf']/a/@href")[0]  # 获取下载链接
    movies['电影名'] = title
    movies['电影海报'] = movie_poster
    movies['电影截图'] = movie_screenshot
    for i, info in enumerate(movie_infos, 0):
        if info.startswith('◎年  代'):
            info = info.replace('◎年  代', '').strip()  # str.strip()方法是去掉字符串头尾空格,正好用于这里。
            movies['上映时间'] = info
        elif info.startswith('◎产  地'):
            info = info.replace('◎产  地', '').strip()  # str.strip()方法是去掉字符串头尾空格,正好用于这里。
            movies['电影产地'] = info
        elif info.startswith('◎类  别'):
            info = info.replace('◎类  别', '').strip()  # str.strip()方法是去掉字符串头尾空格,正好用于这里。
            movies['电影类型'] = info
        elif info.startswith('◎豆瓣评分'):
            info = info.replace('◎豆瓣评分', '').strip()  # str.strip()方法是去掉字符串头尾空格,正好用于这里。
            movies['电影评分'] = info
        elif info.startswith('◎片  长'):
            info = info.replace('◎片  长', '').strip()  # str.strip()方法是去掉字符串头尾空格,正好用于这里。
            movies['电影片长'] = info
        elif info.startswith('◎导  演'):
            info = info.replace('◎导  演', '').strip()
            movies['电影导演'] = info
        elif info.startswith('◎主  演'):
            starring = []
            for x in range(i, len(movie_infos)):
                if movie_infos[x].startswith('◎简  介'):  # 如果到了简介,就代表主演列表结束,那么就结束循环
                    break
                starring.append(movie_infos[x].replace('◎主  演', '').strip())
            movies['电影主演'] = str.join('\n', starring)  # 把主演列表通过join转换成字符串
        elif info.startswith('◎简  介'):
            info = movie_infos[i + 1].strip()  # 简介储存在当前下标的下一个位置
            movies['电影简介'] = info
    movies['迅雷下载'] = movie_download_url

    return movies


def spider():
    target_pages = input('请输入要爬取的页数:')
    # 至少应该爬取第一页。
    if target_pages.isdigit():
        target_pages = int(target_pages)
        if target_pages >= 2:
            target_pages = target_pages + 1
        else:
            target_pages = 2
    print(target_pages)
    base_url = 'http://dytt8.net/html/gndy/dyzz/list_23_{}.html'  # 使用占位符到时候用来确定是第几页
    for i in range(1, target_pages):
        print('=' * 80)
        print('......当前正在爬取第{0}页,请稍后...... Spider is working......'.format(i))
        print('=' * 80)
        url = base_url.format(i)
        detail_urls = get_detail_urls(url)
        for detail_url in detail_urls:
            movies = parse_detail_page(detail_url)
            for key, value in movies.items():
                print(key, value)


if __name__ == '__main__':
    spider()

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 202,905评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,140评论 2 379
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,791评论 0 335
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,483评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,476评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,516评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,905评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,560评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,778评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,557评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,635评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,338评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,925评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,898评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,142评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,818评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,347评论 2 342

推荐阅读更多精彩内容