scrapy 相关

好久没有用过scrapy框架,甚至有一些手生了。学习东西最痛苦的事情是,学了的东西不用。过一段时间我都怀疑自己是否学过了。 还是古话说的好,温故而知新。在这里记录一下感觉重要的几个点。先从简单的来。

0.设置User-Agent

设置User-Agent的方法有很多种,其他的都是设置配置之类的。这里只说一个通过改写middlewares的。

0.0.1 首先来说一个第三方库fake_useragent, 这个库是可以提供随机的User-Agent,免去了自己维护User-Agent的麻烦。
# 安装fake_useragent
pip install fake-useragent
# 使用示例
from fake_useragent import UserAgent
ua = UserAgent()
ua.ie
# Mozilla/5.0 (Windows; U; MSIE 9.0; Windows NT 9.0; en-US);
ua.msie
# Mozilla/5.0 (compatible; MSIE 10.0; Macintosh; Intel Mac OS X 10_7_3; Trident/6.0)'
ua['Internet Explorer']
# Mozilla/5.0 (compatible; MSIE 8.0; Windows NT 6.1; Trident/4.0; GTB7.4; InfoPath.2; SV1; .NET CLR       3.3.69573; WOW64; en-US)
ua.opera
# Opera/9.80 (X11; Linux i686; U; ru) Presto/2.8.131 Version/11.11
ua.chrome
# Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.2 (KHTML, like Gecko) Chrome/22.0.1216.0     Safari/537.2'
ua.google
# Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_4) AppleWebKit/537.13 (KHTML, like Gecko) Chrome/24.0.1290.1 Safari/537.13
ua['google chrome']
# Mozilla/5.0 (X11; CrOS i686 2268.111.0) AppleWebKit/536.11 (KHTML, like Gecko) Chrome/20.0.1132.57 Safari/536.11
ua.firefox
# Mozilla/5.0 (Windows NT 6.2; Win64; x64; rv:16.0.1) Gecko/20121011 Firefox/16.0.1
ua.ff
# Mozilla/5.0 (X11; Ubuntu; Linux i686; rv:15.0) Gecko/20100101 Firefox/15.0.1
ua.safari
# Mozilla/5.0 (iPad; CPU OS 6_0 like Mac OS X) AppleWebKit/536.26 (KHTML, like Gecko) Version/6.0 Mobile/10A5355d Safari/8536.25

# 随机生成一个UA
ua.random
0.0.2 编写middleware.py 文件中的类
from fake_useragent import UserAgent
class RandomUserAgentMiddleware(object):

    def __init__(self, crawler):
        super(RandomUserAgentMiddleware, self).__init__()
        self.ua = UserAgent()

    @classmethod
    def from_crawler(cls, crawler):
        return cls(crawler)

    def process_requests(self, request, spider):
        request.headers.setdefault("User-Agent", self.ua.random)
0.0.3 修改setting文件
 # 值得注意的是原生的UserAgentMiddleware 必须设置为None。
DOWNLOADER_MIDDLEWARES = {
'spiderProject.middlewares.RandomUserAgentMiddleware': 543,
"scrapy.downloadermiddlewares.useragent.UserAgentMiddleware": None
}

1.设置全局代理

同样是编写middleware。这个是非常的简单。然后配置到setting文件中就ok。

class ProxyMiddleware(object):
    def process_requests(self, request, spider):
        request.meta["proxy"] = "http://121.61.0.5:9999"

3.scrapy与selenium结合

3.1 首先编写中间件
class SeleniumRequestsMiddleware(object):
    def process_request(self, request, spider):
        if spider.name == "baidu":
            driver = webdriver.Chrome()
            driver.get(request.url)
            import time
            time.sleep(3)
            from scrapy.http import HtmlResponse  # scapy会将HtmlResponse 直接返回,所以这里要使用这个
           return HtmlResponse(
                url=driver.current_url,
                body=driver.page_source,
                encoding="utf-8",
                request=request
            )

这段代码其实是有问题的:

  1. 只要满足spider.name == "baidu"的请求都会创建一个driver,会极大的影响请求速度。
  2. 当有信号spider close的时候,不一定会执行driver.quit(),内存不一定释放,所以要对关闭进行处理。
  3. 当一个项目同时启动多个spider,会共用到Middleware中的selenium,不利于并发。
3.2 针对以上问题的解决方案
 # middleware.py 文件
class SeleniumRequestsMiddleware(object):
    def process_request(self, request, spider):
       if spider.name == "baidu":
            spider.driver.get(request.url)
            import time
            time.sleep(3)
            from scrapy.http import HtmlResponse
            return HtmlResponse(
                url=spider.driver.current_url,
                body=spider.driver.page_source,
                encoding="utf-8",
                request=request
            )

# spider文件  baidu.py
class BaiduSpider(scrapy.Spider):
    name = 'baidu'
    allowed_domains = ['baidu.com']
    start_urls = ['http://www.baidu.com/']

    def __init__(self): # 在这里可以定制一些webdriver.Chrome()的相关配置
        self.driver = webdriver.Chrome()
        super(BaiduSpider, self).__init__()
        dispatcher.connect(receiver=self.driver_close,  
                       signal=signals.spider_closed)  # 通过信号控制,当是spider_closed信号时,调用driver_close.

    def driver_close(self, spider):
        self.driver.quit()

问题:
这里其实并没有实现并发操作,这个我从github上边,有一个实例scrapy-phantomjs-downloader,重写了downloader,如果需要可以进行参考。

4. 关于setting

setting.py文件中已经有了很多全局化的配置,当然,还有很多配置并没有提示出来,参考setting设置, 这里需要注意的是其配置的优先级,否则很容易出问题。这里重点说两个需要注意的地方。

4.1 为每个spider配置私有配置
class MySpider(scrapy.Spider):
    name = 'myspider'
    custom_settings = {
        'SOME_SETTING': 'some value',
    }
# 这个优先级要比settings.py中的要高,通过custom_settings中的配置会覆盖settings.py中的配置。
4.2 在spider文件中过去设置,可以用self.settings获取配置
class MySpider(scrapy.Spider):
    name = 'myspider'
    start_urls = ['http://example.com']

    def parse(self, response):
        print("Existing settings: %s" % self.settings.attributes.keys())
4.3可以通过scrapy.crawler.Crawler.settings获取配置文件中的配置
#Crawler可以通过settings属性传递给from_crawler扩展,中间件和项目管道中,固定的写法如下:
@classmethod
def from_crawler(cls, crawler):
    settings = crawler.settings
    return cls(crawler)
注:settings在初始化蜘蛛之后,在基础Spider类中设置该属性。如果要在初始化之前使用设置(例如,在spider的__init__()方法中),则需要覆盖该 from_crawler()方法。

5. 关于信号Signals

signals感觉挺重要的,了解信号的机制,对于拓展scrapy来讲相当重要,这里不做多解释,下边是官网 上的一个例子:

from scrapy import signals
from scrapy import Spider


class DmozSpider(Spider):
    name = "dmoz"
    allowed_domains = ["dmoz.org"]
    start_urls = [
        "http://www.dmoz.org/Computers/Programming/Languages/Python/Books/",
        "http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/",
    ]

    @classmethod
    def from_crawler(cls, crawler, *args, **kwargs):
        spider = super(DmozSpider, cls).from_crawler(crawler, *args, **kwargs)
        crawler.signals.connect(spider.spider_closed, signal=signals.spider_closed)
        return spider

    def spider_closed(self, spider):
        spider.logger.info('Spider closed: %s', spider.name)

    def parse(self, response):
        pass

注: 关于scrapy的框架好久没用了,暂时想到这么多。深入理解爬虫中间件、下载中间件以及信号处理的方式,那么拓展scrapy是相当方便的,关于信号的处理我这里也是比较薄弱,还更需努力,欢迎读者老爷不吝指教,谢谢

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,684评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,143评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,214评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,788评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,796评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,665评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,027评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,679评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 41,346评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,664评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,766评论 1 331
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,412评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,015评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,974评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,203评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,073评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,501评论 2 343

推荐阅读更多精彩内容

  • scrapy学习笔记(有示例版) 我的博客 scrapy学习笔记1.使用scrapy1.1创建工程1.2创建爬虫模...
    陈思煜阅读 12,653评论 4 46
  • Scrapy,Python开发的一个快速,高层次的屏幕抓取和web抓取框架,用于抓取web站点并从页面中提取结构化...
    Evtion阅读 5,830评论 12 18
  • 念念不忘,必有回响。 念念不忘,付诸行动! 看看人家小雨同学,放学刚进家门,放下书包就直奔电影院而去。带着学校春季...
    夏夜繁星阅读 398评论 0 2
  • 随着秋雨的到来,窗外滴滴答答的声音,或是一阵凉风吹来,金黄的叶子从树上被淘气的雨点打了下来,秋天到了。 有的...
    遇见vs错过阅读 226评论 0 2
  • 1.做个简单的自我介绍?考点:三分钟内简单的自我介绍对面试者有一个初步了解,主要考察面试者的逻辑概括能力,语言表达...
    Smile竹_阅读 516评论 1 1