@EchelonX 好的,谢谢。
通过JDBC方式将Spark RDD/DataFrame分布式写入Phoenix背景 在实际应用场景,出于安全等方面考虑,有时候大数据平台不暴露对Phoenix的zookeeper url连接方式,本文提供一种基于jdbc的方式实现spark将Spark...
@EchelonX 好的,谢谢。
通过JDBC方式将Spark RDD/DataFrame分布式写入Phoenix背景 在实际应用场景,出于安全等方面考虑,有时候大数据平台不暴露对Phoenix的zookeeper url连接方式,本文提供一种基于jdbc的方式实现spark将Spark...
18/12/29 14:57:24 INFO tool.PhoenixJdbcUtils$: ^^^^^Exec batch:1000
18/12/29 14:57:24 INFO tool.PhoenixJdbcUtils$: ^^^^^Exec batch:1000
18/12/29 14:57:24 INFO tool.PhoenixJdbcUtils$: ^^^^^Exec batch:1000
18/12/29 14:57:24 INFO tool.PhoenixJdbcUtils$: ^^^^^Exec batch:1000
18/12/29 14:57:24 INFO tool.PhoenixJdbcUtils$: ^^^^^Exec batch:1000
18/12/29 14:57:25 INFO tool.PhoenixJdbcUtils$: ^^^^^Exec batch:1000
18/12/29 14:57:25 INFO tool.PhoenixJdbcUtils$: ^^^^^Exec batch:1000
18/12/29 14:57:25 INFO tool.PhoenixJdbcUtils$: ^^^^^Exec batch:1000
18/12/29 14:57:25 ERROR executor.Executor: Exception in task 0.0 in stage 0.0 (TID 0)
org.apache.phoenix.exception.BatchUpdateExecution: ERROR 1106 (XCL06): Exception while executing batch.
Caused by: java.sql.SQLException: ERROR 730 (LIM02): MutationState size is bigger than maximum allowed number of bytes
--------------------------------------------------------------------------------------------------------------------------
在大量数据(百万条级别)进行操作时,会抛如上的错误。不知你是否有遇到过,一般如何处理这种情况呢?
通过JDBC方式将Spark RDD/DataFrame分布式写入Phoenix背景 在实际应用场景,出于安全等方面考虑,有时候大数据平台不暴露对Phoenix的zookeeper url连接方式,本文提供一种基于jdbc的方式实现spark将Spark...
@EchelonX 谢谢。
通过JDBC方式将Spark RDD/DataFrame分布式写入Phoenix背景 在实际应用场景,出于安全等方面考虑,有时候大数据平台不暴露对Phoenix的zookeeper url连接方式,本文提供一种基于jdbc的方式实现spark将Spark...
你好,请问这种实现方式是直接修改spark 的源码,然后再自己打包的吗?
通过JDBC方式将Spark RDD/DataFrame分布式写入Phoenix背景 在实际应用场景,出于安全等方面考虑,有时候大数据平台不暴露对Phoenix的zookeeper url连接方式,本文提供一种基于jdbc的方式实现spark将Spark...