python多线程爬取百度云电影网站

import queue
import threading
import requests
import re
from lxml import etree
import time
import random
import json

# 已爬 url
urlList = []

# 正在爬url对列
urlsData = queue.Queue()

# urlERRor失败次数
urlError = {}
# 第几个爬虫
count = 0

# 模拟header头
header = {
    'Connection': 'keep-alive',
    'Cache-Control': 'max-age=0',
    'Upgrade-Insecure-Requests': '1',
    'User-Agent': "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Safari/537.36",
    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
    'Accept-Encoding': 'gzip, deflate, sdch',
    'Accept-Language': 'zh-CN,zh;q=0.8',
}

class Counter(threading.Thread):
    # @summary: 初始化对象。
    # @param lock: 琐对象。
    # @param threadName: 线程名称
    # @param requests: 线程名称
    # @param url:  爬取来源url
    # @param name: 数据名称
    # @param id: 数据id
    def __init__(self, lock, threadName, requests, url):

        print(threadName+'run..')
        super(Counter, self).__init__(name=threadName)
        self.lock = lock
        self.requests = requests
        self.url = url

    def _data_get(self):

        # 开始任务
        try:
            # 爬取来源地址
            html = requests.get(self.url,headers=header)
            rs = etree.HTML(html.content)
            # 解析网页百度地址
            url = re.findall(r'href="(https://pan.baidu.com/s/.*?|http://pan.baidu.com/s/.*?)"',html.content.decode('utf-8'))
            # 解析网页百度云密码
            password = re.findall(r'密码(:|;|: )(\w{0,4})', html.content.decode('utf-8'))
            name = rs.xpath('//h1/text()')
            # 打印
            try:
                password = password[0][1]
            except BaseException as e:
                password = ''

            # 爬取豆瓣电影封面图
            try:
                url1 = "http://www.baidu.com/s?"
                html = requests.get(url1,params={
                    'wd':"site:movie.douban.com {}".format(self.name)
                })
                select = etree.HTML(html.content)
                # saveHtml("text1", html.content)
                a = select.xpath('//h3[@class="t"]/a/@href')
                html = requests.get(a[0])
                select = etree.HTML(html.content)
                # print(html.content)
                ase = select.xpath('//img/@src')
                img = ase[0]
            except BaseException as e:
                print(self.name,'豆瓣电影封面获取失败')
                img = ''
            # 提交数据

            print(name[0])
            # 提交数据
            rr = requests.post('http://localhost/basic/index.php?r=bian/update', {
                'password': password,
                'url': url[0],
                'img': img,
                'source_url': self.url,
                'name': name[0]
            })
            threadmax.release()
            print(rr.content)
#             message = '''
#             '%s','%s','%s','%s';
# ''' % (password, url[0], img, name[0])
#             print(message)

        except BaseException as e:
            if self.url in urlError:
                urlError[self.url] = urlError[self.url] + 1
            else:
                urlError[self.url] = 1
            if urlError[self.url]<3:
                urlsData.put(self.url)
            print('百度云地址解析失败',self.url,'失败次数',urlError[self.url],e)
            print('目前剩余任务', urlsData.qsize())


    def run(self):
        global count
        self.lock.acquire()
        self._data_get()
        self.lock.release()

if __name__ == '__main__':
    threadmax = threading.BoundedSemaphore(100)
    lock = threading.Lock()
    i = 0
    try:
        # 单进程爬所有任务url
        for index1 in range(20):
            index = 1038 - index1
            html = requests.get('http://www.xiexingeini.com/page/{}'.format(index), headers=header)
            html = etree.HTML(html.content)
            # 所有任务
            urls = html.xpath('//header/h2[@class="entry-title"]/a/@href')
            for url in range(len(urls)):
                urlsData.put(urls[url])
            print('已抓取url',urlsData.qsize())
        print('全部任务:',urlsData.qsize())

        # 对列循环爬取
        while True:
            threads = []
            uu = urlsData.get()
            i = i+1
            try:
                threadmax.acquire()
                ts = Counter(lock, "thread-" + str(i), requests, uu).start()
            except BaseException as e:
                print(e)
                # 重新插入对列
                urlsData.put(uu)
                if e == "can't start new thread":
                    print('线程开启失败')
                    time.sleep(180)
                else:
                    print(uu,'error')
    except BaseException as e:
        print('url error')
        print(e)
    # while True:

# # 添加数据:吃
# q1.put('a')
# q1.put('b')
#
# # 打印队列中的数据
# print(q1.queue)
#
# # 取出队列中的数据:先进先出原则
# print(q1.get())
# print(q1.queue)
# print(q1.qsize())
# print(q1.get())
# 当队列里没有数据是,get获取不到到数据,会造成阻塞
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,293评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,604评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,958评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,729评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,719评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,630评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,000评论 3 397
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,665评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,909评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,646评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,726评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,400评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,986评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,959评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,197评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,996评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,481评论 2 342

推荐阅读更多精彩内容

  • 前面那篇爬虫文章用的是单线程没有用到其它一些比较提高效率的工具比较遗憾,所以今天做了一个比较全面的爬虫。首先谢谢 ...
    小鸡在路上阅读 3,004评论 10 9
  • 多线程爬取表情包 有一个网站,叫做“斗图啦”,网址是:https://www.doutula.com/。这里面包含...
    编程小蝉阅读 1,048评论 1 7
  • 跑过月亮 星星 夜晚终于来临 原来太阳也很好脾气 背靠着月亮 永不分离 塔尖与天空耳语 风悄悄握紧云的手臂 “走吧...
    坐山观云水阅读 191评论 0 0
  • 再次回到梦想开始的地方,感觉如何? 无锡,一个职业转型后技术成长的地方,难分难舍,没想到多年以后,又回到了原来的公...
    尘埃__阅读 249评论 0 0
  • 这盆水仙花,本身花期短,中午阳光明媚想让她好好沐浴,不料放在窗台上,枝头太重,结果栽落到地上……痛惜……没...
    z17沙鸥阅读 263评论 2 1