历史节点的配置druid.service=druid/historicaldruid.port=8083 HTTP server threads druid.server.h...
历史节点的配置druid.service=druid/historicaldruid.port=8083 HTTP server threads druid.server.h...
Druid是Apache 下开源的一款存储与计算一体的olap查询引擎,spark则是纯计算引擎。Druid的数据存储在历史节点,通过broker节点查询,整体的查询流程是两...
创建Segment过程概述 Peon进程由middle manager进程启动提供http接口接收原始数据将一行行的数据做merge,当行数达到maxRowsInMemory...
IncrementalIndex IncrementalIndex类有两个重要的成员metricDescs和dimensionDescs metricDescs和dimens...
IncrementalIndex IncrementalIndex类有两个重要的成员metricDescs和dimensionDescs metricDescs和dimens...
@_backtrack_ 哪里有问题?这个sql直接运行都可以的。
greenplum 导入 Spark计算的RoaringBitmap最近在做基于标签的圈人。通过bitmap来做,使用开源的RoaringBitmap,数据存储在hive上。开始是通过greenplum的pxf插件,将数据导入到gp,然后聚合...
@圣萌岛 gp需要从pivotal上下载的
Greenplum pxf 连接hadoop最近在搞greenplum连接hadoop,采用pxf插件。hadoop集群是kerberos认证的。 首先添加一下hadoop的参数: $ gpconfig -c gp_h...
GroupBy查询 group by是druid的核心查询。 从broker到historical的查询 历史节点groupby查询 1查询入口QueryResource注入...
spark中的dataframe
greenplum 导入 Spark计算的RoaringBitmap最近在做基于标签的圈人。通过bitmap来做,使用开源的RoaringBitmap,数据存储在hive上。开始是通过greenplum的pxf插件,将数据导入到gp,然后聚合...
最近在做基于标签的圈人,使用了开源的Roaringbitmap。Greenplum安装完Roaringbitmap插件后,可以构建roaringbitmap,不过这些操作都是...
最近在做基于标签的圈人。通过bitmap来做,使用开源的RoaringBitmap,数据存储在hive上。开始是通过greenplum的pxf插件,将数据导入到gp,然后聚合...
最近在搞greenplum连接hadoop,采用pxf插件。hadoop集群是kerberos认证的。 首先添加一下hadoop的参数: $ gpconfig -c gp_h...