Docker网络和数据管理:提升你的Python爬虫

在本篇博客中,我们将深入探讨Docker的网络和数据管理功能,并通过具体的代码案例演示如何为Python爬虫应用配置网络和持久化数据。

Docker的网络功能

Docker网络允许容器以多种方式互联,这对于构建多个服务需要通信的应用非常有用。默认情况下,Docker提供了几种网络模式:

bridge:默认的网络模式,为每个独立的容器提供了一个隔离的网络环境。

host:移除了网络隔离,容器会直接使用宿主机的网络。

none:禁用所有网络。

overlay:支持Docker Swarm,用于不同的宿主机上的容器间的通信。

创建自定义网络

我们可以创建一个自定义网络来确保我们的爬虫服务可以在隔离的环境中互联。

docker network create crawler-network

连接容器到网络

当运行容器时,可以通过--network标志将其连接到创建好的网络。

docker run --network=crawler-network --name my-crawler python-spider

Docker的数据管理

为了持久化数据和状态,Docker提供了卷(volumes)和绑定挂载(bind mounts)。

:由Docker管理的主机文件系统的一部分,非常适合持久化数据和共享数据。

绑定挂载:直接映射了主机上的一个文件或目录到容器中,可以用来提供配置文件或修改源代码。

使用卷存储数据

假设我们的爬虫需要保存数据到一个CSV文件,我们可以创建一个卷来保存这些数据。

docker volume create crawler-data

然后,我们将这个卷挂载到容器的指定目录。

docker run --network=crawler-network -v crawler-data:/data --name my-crawler python-spider

在spider.py中,我们可以将爬取的数据写入到/data目录下的文件,这样即使容器停止运行,数据也不会丢失。

代码案例:配置网络和卷

让我们更新Dockerfile,以便在容器中的/data目录中保存爬虫输出。

# Use an official Python runtime as a parent image

FROM python:3.8

# Set the working directory in the container

WORKDIR /usr/src/app

# Copy the current directory contents into the container at /usr/src/app

COPY . .

# Install any needed packages specified in requirements.txt

RUN pip install --no-cache-dir requests beautifulsoup4

# Define mountable directory

VOLUME /data

# Run spider.py when the container launches

CMD ["python", "./spider.py"]

更新spider.py,让其将输出写入到/data目录。

import requests

from bs4 import BeautifulSoup

import csv

import os

def main(url):

    response = requests.get(url)

    soup = BeautifulSoup(response.text, 'html.parser')

    return soup.title.string

if __name__ == '__main__':

    urls = ['http://example.com']

    output_file = '/data/output.csv'


    # 确保/data目录存在

    os.makedirs(os.path.dirname(output_file), exist_ok=True)


    with open(output_file, 'w', newline='', encoding='utf-8') as file:

        writer = csv.writer(file)

        writer.writerow(['URL', 'Title'])


        for url in urls:

            title = main(url)

            print(f'URL: {url}')

            print(f'Title: {title}')

            writer.writerow([url, title])

现在,当我们运行Docker容器并将卷挂载到/data时,爬虫程序将把结果保存到这个卷中。

docker run --network=crawler-network -v crawler-data:/data --name my-crawler python-spider

总结

通过使用Docker的网络和数据管理功能,我们可以有效地为Python爬虫创建一个可复用、可伸缩且持久化的环境。Docker的网络功能允许容器之间的安全互联,而数据卷则确保了我们的数据是安全和可持续的,即使在容器重新启动后也不会丢失。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 199,902评论 5 468
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 84,037评论 2 377
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 146,978评论 0 332
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,867评论 1 272
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,763评论 5 360
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,104评论 1 277
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,565评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,236评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,379评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,313评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,363评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,034评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,637评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,719评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,952评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,371评论 2 346
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 41,948评论 2 341

推荐阅读更多精彩内容