240 发简信
IP属地:安徽
  • 基于Spark的Druid 索引任务(druid-spark-batch)

    1. 前言 随着Druid上的DataSource的数量和数据量增加,使用原来的 Hadoop MR索引任务已经不能满足对大数据量写入Druid的需求,急需找到更快的写入方式...