Scrapy 基本应用

一、安装:

pip install scrapy -i https://pypi.tuna.tsinghua.edu.cn/simple/

二、基本命令

  • 创建项目:scrapy startproject <project_name> [project_dir]
  • 创建爬虫:scrapy genspider <mydomain> mydomain.com
  • 命令行交互 scrapy shell url

三、Scrapy项目结构:

  • scrapy.cfg: 项目的配置信息,主要为 Scrapy 命令行工具提供一个基础的配置信息
  • items.py: 格式化数据
  • middlewares.py: 设置IP代理,反爬时用到
  • pipelines.py: 数据处理行为,如:一般结构化数据的持久化
  • settings.py: 配置文件
  • spiders: 爬虫目录

四、Script Demo:

  1. web_url: https://tieba.baidu.com/f?kw=%BC%C3%D6%DD%B8%AE

  2. Shell调试

// Shell调试
scrapy shell https://tieba.baidu.com/f?kw=%BC%C3%D6%DD%B8%AE
response
response.css(".j_th_tit")   
response.css(".j_th_tit").extract()
response.css(".j_th_tit::attr('href')").extract()
  1. 虚拟环境下,创建爬虫
// 虚拟环境下,创建爬虫
scrapy startproject my_spider
cd my_spider
scrapy genspider tieba_jzf https://tieba.baidu.com/f?kw=%BC%C3%D6%DD%B8%AE
  1. 代码示例:
  • 主函数: /my_spider/my_spider/main.py
# -*- coding:utf-8 -*-
from scrapy.cmdline import execute
import sys
import os

sys.path.append(os.path.dirname(os.path.abspath(__file__)))
execute(['scrapy', 'crawl', 'tieba_jzf'])  # arg 3: 爬虫名 TiebaJzfSpider name

# test path
# print(__file__)
# print(os.path.abspath(__file__))
# print(os.path.dirname(os.path.abspath(__file__)))


  • 爬虫解析/my_spider/my_spider/spiders/tieba_jzf.py
# -*- coding: utf-8 -*-
from urllib import parse
import scrapy
from my_spider.items import TiebaItem


class TiebaJzfSpider(scrapy.Spider):
    name = 'tieba_jzf'
    # allowed_domains = ['https://tieba.baidu.com/f?kw=%BC%C3%D6%DD%B8%AE']
    # start_urls = ['http://https://tieba.baidu.com/f?kw=%BC%C3%D6%DD%B8%AE/']
    # 域名
    allowed_domains = ['tieba.baidu.com']
    start_urls = ['https://tieba.baidu.com/f?kw=%BC%C3%D6%DD%B8%AE']


    def parse(self, response):
        # 页面帖子url数组
        url_list = response.css(".j_th_tit::attr(href)").extract()
        # 遍历帖子,调取下级页面
        for url in url_list:
            print('---- url:', url)
            yield scrapy.Request(url=parse.urljoin(response.url, url), callback=self.parse_detail)

        # next page
        next_url = response.css(".next.pagination-item::attr(href)").extract()
        if next_url is not None:
            yield scrapy.Request(url=parse.urljoin(response.url, next_url), callback=self.parse)

    # 解析详情
    def parse_detail(self, response):
        print('---- detail url:', response.url)
        # 标题 title core_title_txt
        title = response.css(".core_title_txt::text").extract()[0]
        if title is not None:
            # 回复
            authors = response.css(".p_author_name.j_user_card::text").extract()
            contents = response.css('.d_post_content.j_d_post_content.clearfix').extract()
            texts = response.css('.d_post_content.j_d_post_content.clearfix::text').extract()
            # tail_infos =
            # # j_p_postlist > div:nth-child(5) > div.d_post_content_main >
            # # div.core_reply.j_lzl_wrapper > div.core_reply_tail > ul.p_tail > li:nth-child(2) > span

            print('---- 打印数据:')
            print('---- title:', title)
            for i in range(len(authors)):
                tieba_item = TiebaItem()
                tieba_item['title'] = title
                tieba_item['author'] = authors[i]
                tieba_item['content'] = texts[i]

                yield tieba_item

                # print('---- author:{} content:{}'.format(authors[i], texts[i]))
                # if i > 200:
                #     break

        # 详情翻页
        detail_next_url_list = response.css(".tP+a::attr(href)").extract()
        if detail_next_url_list:
            yield scrapy.Request(url=parse.urljoin(response.url, detail_next_url_list[0]), callback=self.parse_detail)


  • 配置信息/my_spider/my_spider/settings.py
# modify
# Configure item pipelines
# See https://doc.scrapy.org/en/latest/topics/item-pipeline.html
#ITEM_PIPELINES = {
#    'my_spider.pipelines.MySpiderPipeline': 300,
#}
ITEM_PIPELINES = {
   'my_spider.pipelines.MySQLTwistedPipeline': 1,
}

# add
# 数据库基本信息
MYSQL_HOST = "10.2.130.**"
MYSQL_USER = "root"
MYSQL_DB = "baidu_db"
MYSQL_PASSWORD = '******'


  • 数据格式化/my_spider/my_spider/items.py
# -*- coding: utf-8 -*-
# Define here the models for your scraped items
#
# See documentation in:
# https://doc.scrapy.org/en/latest/topics/items.html

import scrapy


class MySpiderItem(scrapy.Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
    pass


class TiebaItem(scrapy.Item):
    title = scrapy.Field()
    author = scrapy.Field()
    content = scrapy.Field()

    def get_insert_sql(self):
        sql_setence = '''
            insert into tieba(title, author, content) values (%s, %s, %s)
        '''
        params = (self['title'], self['author'], self['content'])

        return sql_setence, params


  • 数据处理行为/my_spider/my_spider/pipelines.py
# -*- coding: utf-8 -*-

# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: https://doc.scrapy.org/en/latest/topics/item-pipeline.html

# MySQLdb ImportError
import pymysql
pymysql.install_as_MySQLdb()
import MySQLdb
import MySQLdb.cursors

from twisted.enterprise import adbapi


class MySpiderPipeline(object):
    def process_item(self, item, spider):
        return item


class MySQLTwistedPipeline(object):
    #
    def __init__(self, db_pool):
        self.db_pool = db_pool

    #
    @classmethod
    def from_settings(cls, settings):
        db_params = dict(
            host=settings['MYSQL_HOST'],
            user=settings['MYSQL_USER'],
            db=settings['MYSQL_DB'],
            passwd=settings['MYSQL_PASSWORD'],
            charset='utf8',
            cursorclass=MySQLdb.cursors.DictCursor,
            use_unicode=True
        )

        db_pool = adbapi.ConnectionPool("MySQLdb", **db_params)
        return cls(db_pool)

    #
    def process_item(self, item, spider):
        self.db_pool.runInteraction(self.do_insert, item)
        return item

    #
    def do_insert(self, cursor, item):
        insert_sql, params = item.get_insert_sql()
        cursor.execute(insert_sql, params)


  • IP代理,反爬/my_spider/my_spider/middlewares.py

安装:pip install fake-useragent
文档:https://pypi.org/project/fake-useragent/

# IP代理
from fake_useragent import UserAgent

class RandomIpMiddleware(object):
    def __init__(self):
        self.ua = UserAgent()

    def process_request(self, request, spider):
        request.meta['proxy'] = 'http://182.109.XXX.XXX'
        request.heads.setdefault('User-Agent', self.ua.random)


  • APP抓包: Requests

安装:pip install requests
文档:https://pypi.org/project/requests/

import requests
r = requests.get('https://www.baidu.com/', auth=('user', 'pass'))   
r.status_code 
r.headers['content-type'] 
r.encoding   
r.text
r.json   
r.content




©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,547评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,399评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,428评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,599评论 1 274
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,612评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,577评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,941评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,603评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,852评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,605评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,693评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,375评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,955评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,936评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,172评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,970评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,414评论 2 342

推荐阅读更多精彩内容