使用Docker搭建Data Pipeline

在搭建数据通道(data pipeline)时,由于涉及到:数据读取,数据分析,数据存储等等,
如果将各个部分分别容器化,独立设计各个模块,将有助于缩短开发时间。

这里以一个基于 Kafka 和 Spark Streaming 的实时流 data pipeline 为例,介绍如何使用 docker compose 分别搭建各个服务并实现快速demo。

整体架构

使用 Apache Kafka 作为数据总线, 进行数据的收集与分发。通过 Spark Streaming 实现数据的实时处理,并将结果数据存储到 MySQL 中。

具体结构如图:

image.png

数据读取

实例中需要分析来自 csv文件的数据。为了将文件数据导入 Kafka,可以使用 Kafka Connect。
不同文件中的数据将被 Kafka Connect 导入 Kafka 中专门的 topic。

数据分析

Spark Streaming 可以方便地接收来自 Kafka 的实时数据。
这个Demo中使用的数据源为来自文件的批数据,不过Demo中的架构同样可以处理流数据。

数据存储

经过 Spark Streaming 分析得到的结果,将被导入 MySQL,方便之后的查询。同时,也可以导入 Kafka 中对应的 topic。例如异常分析的结果可以放入名为anomaly的 topic。

docker compose 管理

使用 docker compose 来管理上述众多服务。 由于主要的处理逻辑都放在了 Spark Streaming 中,需要自行编写Dockerfile,其它各个服务都可以直接使用来自 Docker Hub的镜像。

ZooKeeper服务:

  zoo1:
    image: wurstmeister/zookeeper
    restart: unless-stopped
    hostname: zoo1
    ports:
      - "2181:2181"
    container_name: pipeline-zookeeper

Kafka服务:
使用来自 confluent 的 kafka 镜像。
仅用作Demo测试架构可行性,因此 kafka 仅含一个 broker, topic 的 partition 数以及 replication factor 也因此为1.

  kafka1:
    image: confluentinc/cp-kafka:4.0.0
    hostname: kafka1
    ports:
      - "9092:9092"
    environment:
      KAFKA_ADVERTISED_LISTENERS: "PLAINTEXT://kafka1:9092"
      KAFKA_ZOOKEEPER_CONNECT: "zoo1:2181"
      KAFKA_BROKER_ID: 1
      KAFKA_LOG4J_LOGGERS: "kafka.controller=INFO,kafka.producer.async.DefaultEventHandler=INFO,state.change.logger=INFO"
      KAFKA_OFFSETS_TOPIC_REPLICATION_FACTOR: 1
    depends_on:
      - zoo1
    container_name: pipeline-kafka

Kafka Connect服务:
Kafka Connect 需要知道 Kafka 集群的信息。在 docker compose 内可以用服务名称即 kafka1 直接指代我们之前配置的 kafka broker。
这里配置的仅仅是 Kafka Connect Worker,具体的connect任务,即连接什么数据源,连接到kafka中的哪个topic去,需要在Kafka Connect服务启动后,通过 REST API 提交。

  kafka-connect:
    image: confluentinc/cp-kafka-connect:4.0.0
    hostname: kafka-connect
    ports:
      - "8083:8083"
    environment:
      CONNECT_BOOTSTRAP_SERVERS: "kafka1:9092"
      CONNECT_REST_PORT: 8083
      CONNECT_GROUP_ID: compose-connect-group1
      CONNECT_CONFIG_STORAGE_TOPIC: docker-connect-configs
      CONNECT_OFFSET_STORAGE_TOPIC: docker-connect-offsets
      CONNECT_STATUS_STORAGE_TOPIC: docker-connect-status
      CONNECT_KEY_CONVERTER: org.apache.kafka.connect.storage.StringConverter
      CONNECT_KEY_CONVERTER_SCHEMA_REGISTRY_URL: 'http://kafka-schema-registry:8081'
      CONNECT_VALUE_CONVERTER: org.apache.kafka.connect.storage.StringConverter
      CONNECT_VALUE_CONVERTER_SCHEMA_REGISTRY_URL: 'http://kafka-schema-registry:8081'
      CONNECT_INTERNAL_KEY_CONVERTER: "org.apache.kafka.connect.json.JsonConverter"
      CONNECT_INTERNAL_VALUE_CONVERTER: "org.apache.kafka.connect.json.JsonConverter"
      CONNECT_REST_ADVERTISED_HOST_NAME: "kafka-connect"
      CONNECT_LOG4J_ROOT_LOGLEVEL: "INFO"
      CONNECT_LOG4J_LOGGERS: "org.apache.kafka.connect.runtime.rest=WARN,org.reflections=ERROR"
      CONNECT_CONFIG_STORAGE_REPLICATION_FACTOR: "1"
      CONNECT_OFFSET_STORAGE_REPLICATION_FACTOR: "1"
      CONNECT_STATUS_STORAGE_REPLICATION_FACTOR: "1"
    volumes:
      - ./data:/data
    depends_on:
      - zoo1
      - kafka1
    container_name: pipeline-kafka-connect

Spark Streaming服务:
Spark Streaming 服务build自本地路径./spark-streaming
路径下放有Dockerfilerequirements.txt,以及存放处理逻辑的main文件夹。

  spark-streaming:
    build: ./spark-streaming
    ports:
      - "8081:8081"
    volumes:
      - ./log:/spark-streaming/log
    depends_on:
      - kafka1
    container_name: pipeline-spark-streaming

MySQL服务:
environment下设置数据库名称与密码。
同时可以在command下声明初始化文件,创建项目中需要的表格。

  mysql:
    image: mysql:5.6.34
    restart: always
    environment:
      MYSQL_DATABASE: "data_pipeline"
      MYSQL_ROOT_PASSWORD: "233"
      MYSQL_ALLOW_EMPTY_PASSWORD: "no"
    command: --init-file /tmp/create_db.sql
    volumes:
      - ./mysql/create_db.sql:/tmp/create_db.sql
    ports:
      - "3306:3306"
    container_name: pipeline-mysql
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,968评论 6 482
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,601评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 153,220评论 0 344
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,416评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,425评论 5 374
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,144评论 1 285
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,432评论 3 401
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,088评论 0 261
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,586评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,028评论 2 325
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,137评论 1 334
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,783评论 4 324
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,343评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,333评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,559评论 1 262
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,595评论 2 355
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,901评论 2 345

推荐阅读更多精彩内容