240 发简信
IP属地:广东
  • @EchelonX 好的,谢谢。

    通过JDBC方式将Spark RDD/DataFrame分布式写入Phoenix

    背景 在实际应用场景,出于安全等方面考虑,有时候大数据平台不暴露对Phoenix的zookeeper url连接方式,本文提供一种基于jdbc的方式实现spark将Spark...

  • 18/12/29 14:57:24 INFO tool.PhoenixJdbcUtils$: ^^^^^Exec batch:1000
    18/12/29 14:57:24 INFO tool.PhoenixJdbcUtils$: ^^^^^Exec batch:1000
    18/12/29 14:57:24 INFO tool.PhoenixJdbcUtils$: ^^^^^Exec batch:1000
    18/12/29 14:57:24 INFO tool.PhoenixJdbcUtils$: ^^^^^Exec batch:1000
    18/12/29 14:57:24 INFO tool.PhoenixJdbcUtils$: ^^^^^Exec batch:1000
    18/12/29 14:57:25 INFO tool.PhoenixJdbcUtils$: ^^^^^Exec batch:1000
    18/12/29 14:57:25 INFO tool.PhoenixJdbcUtils$: ^^^^^Exec batch:1000
    18/12/29 14:57:25 INFO tool.PhoenixJdbcUtils$: ^^^^^Exec batch:1000
    18/12/29 14:57:25 ERROR executor.Executor: Exception in task 0.0 in stage 0.0 (TID 0)
    org.apache.phoenix.exception.BatchUpdateExecution: ERROR 1106 (XCL06): Exception while executing batch.

    Caused by: java.sql.SQLException: ERROR 730 (LIM02): MutationState size is bigger than maximum allowed number of bytes
    --------------------------------------------------------------------------------------------------------------------------

    在大量数据(百万条级别)进行操作时,会抛如上的错误。不知你是否有遇到过,一般如何处理这种情况呢?

    通过JDBC方式将Spark RDD/DataFrame分布式写入Phoenix

    背景 在实际应用场景,出于安全等方面考虑,有时候大数据平台不暴露对Phoenix的zookeeper url连接方式,本文提供一种基于jdbc的方式实现spark将Spark...

  • @EchelonX 谢谢。

    通过JDBC方式将Spark RDD/DataFrame分布式写入Phoenix

    背景 在实际应用场景,出于安全等方面考虑,有时候大数据平台不暴露对Phoenix的zookeeper url连接方式,本文提供一种基于jdbc的方式实现spark将Spark...

  • 你好,请问这种实现方式是直接修改spark 的源码,然后再自己打包的吗?

    通过JDBC方式将Spark RDD/DataFrame分布式写入Phoenix

    背景 在实际应用场景,出于安全等方面考虑,有时候大数据平台不暴露对Phoenix的zookeeper url连接方式,本文提供一种基于jdbc的方式实现spark将Spark...