爬一爬豆瓣电影

# coding=utf-8

import urllib.request
import requests
from lxml import etree
import time

#获取主题连接下的全部地址

'''
获取每个主题下有多少页内容  (没有输入,输出字典)
'''
class theme_page(object):
    def __init__(self):
        self.tags = [u"爱情", u"喜剧", u"动画", u'剧情', u'科幻', u'动作', u'经典', u'悬疑', u'青春', u'犯罪', u'惊悚', \
                u"文艺", u"搞笑", u"纪录片", u'励志', u'恐怖', u'战争', u'短片', u'黑色幽默', u'魔幻', u'传记', \
                u'情色', u"感人", u"暴力", u'动画短片', u'家庭', u'音乐', u'童年', u'浪漫', u'黑帮', u'女性', \
                u'同志', u"史诗", u"童话", u'烂片', u'cult']

    def get_total_num(self):
        tags = self.tags
        total_num = []
        list = []
        for tag in tags:
            # print(tag)   #主题名称
            re_url = 'https://movie.douban.com/tag/{}?start=0&type=T'.format(urllib.request.quote(tag))
            # print(re_url)     # 主题链接
            s = requests.get(re_url)
            contents = s.content.decode('utf-8')
            selector = etree.HTML(contents)
            num = selector.xpath('//*[@id="content"]/div/div[1]/div[3]/a[10]/text()')
            total_num.append(int(num[0]))
            # print(num[0])    # 总页数
            list.append({                # list :{'爱情': '393'}, {'喜剧': '392'}, {'动画': '274'},
                '主题' : tag ,
                '总页数' : num[0]
            })
        return list 

#使用lxml工具先抓到列表页中的电影简介信息和链接

tag = urllib.request.quote(u'爱情')
url_1 = 'https://movie.douban.com/tag/{}?start=0&type=T'.format(tag)

class douban(object):
    def __init__(self,*args,**kwargs):
        self.conn = pymysql.connect(host='localhost', port=3306, user='root', password='', db='douban', charset='utf8')
        self.cursor = self.conn.cursor()
        self.sql_info = "INSERT IGNORE INTO `douban_mov` VALUES(%s,%s,%s,%s,%s,%s)"

    def search(self,content):
        '''
        爬取页面内电影信息
        '''
        try:
            selector = etree.HTML(content)
            textslist = selector.xpath('//div[contains(@class,"grid-16-8 clearfix")]/div[1]/div[2]/table')
        except Exception as e:
            print(e)

        try:
            for text in textslist:
                lists = []
                title = text.xpath('tr/td[2]/div/a/text()')     
                score = text.xpath('tr/td[2]/div/div/span[2]/text()')      
                num = text.xpath('tr/td[2]/div/div/span[3]/text()')       
                link = text.xpath('tr/td/a/@href')           
                content = text.xpath('tr/td[2]/div/p/text()')      

                if title:
                    title = title[0].strip().replace('\n', "").replace(' ', "").replace('/', "") if title else ''
                    score = score[0] if score else ''
                    num = num[0].replace('(', "").replace(')', "") if num else ''
                    link = link[0] if link else ''
                    time = content[0].split(' / ')[0] if content else ''
                    actors = content[0].split(' / ')[1:6] if content else ''
                    lists.append({
                        '电影名' : title,
                        '评分' : score,
                        '评价人数' : num,
                        '详情链接' : link,
                        '上映时间' : time,
                        '主演' : actors
                    })
                    if lists:
                        lists = lists.pop()
                    else:
                        lists = u' '

                    print(lists)
                    try:
                        self.cursor.execute(self.sql_info,(str(lists['电影名']),str(lists['评分']),str(lists['评价人数']),str(lists['详情链接']),
                                          str(lists['上映时间']),str(lists['主演'])))
                        self.conn.commit()
                    except Exception as e:
                        print(e)
        except Exception as e:
            pass        

#从列表页中找到每部电影链接,进去抓详情
        
def get_detail(self,url):
        '''
        抓取每页详细信息
        '''
        try:
            detail_contents = requests.get(url)
            detail_contents =detail_contents.content.decode('utf-8')
            selector = etree.HTML(detail_contents)
        except Exception as e:
            print(e)
        detail = []
        try:
            detail_director = selector.xpath('//*[@id="info"]/span[1]/span[2]/a/text()')   # 导演
            detail_time = selector.xpath('//span[contains(@property,"v:runtime")]/text()')   # 片长
            detail_type_1 = selector.xpath('//*[@id="info"]/span[5]/text()')   # 类型
            detail_type_2 = selector.xpath('//*[@id="info"]/span[6]/text()')
            detail_type_3 = selector.xpath('//*[@id="info"]/span[7]/text()')
        except Exception as e:
            print(e)
        if detail_director:
            detail_director = detail_director[0] if detail_director else ''
            detail_time = detail_time[0] if detail_time else ''
            detail_type_1 = detail_type_1[0] if detail_type_1 else ''
            detail_type_2 = detail_type_2[0] if detail_type_2 else ''
            detail_type_3 = detail_type_3[0] if detail_type_3 else ''
            type = detail_type_1 + u' ' + detail_type_2 + u' ' + detail_type_3
            detail.append({
                '导演' : detail_director,
                '片长' : detail_time,
                '类型' : type,
            })
        else:
            pass
        return detail
        
#run

for page_info in page_infos:   # 遍历所有主题
    tags = page_info['主题']
    page = page_info['总页数']
    tag = urllib.request.quote(tags)
    threads = []
    for i in range(int(page)):    # 每个主题下的所有页数
        if i == 0:
            url = 'https://movie.douban.com/tag/{0}?start={1}&type=T'.format(tag, 0)
        else:
            url = 'https://movie.douban.com/tag/{0}?start={1}&type=T'.format(tag, i * 20)
        s = requests.get(url)
        s = s.content.decode('utf-8')
        # pool.apply_async(run.search(s))
        # pool.close()
        # pool.join()
        lists = run.search(s)
        time.sleep(5)          
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,793评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,567评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,342评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,825评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,814评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,680评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,033评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,687评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,175评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,668评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,775评论 1 332
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,419评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,020评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,978评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,206评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,092评论 2 351
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,510评论 2 343

推荐阅读更多精彩内容