要是用Spark SQL,首先得先创建一个SQL Context 对象,或者是它的子类对象,比如HiveContext的对象:
Java版本:
JavaSparkContext sc = ...;
SQLContext sqlContext = new SQLContext(sc);
Scala 版本:
val sc:SparkContext = ...
val sqlContext = new SQLContext(sc)
import sqlContext.implicits._
要是用Spark SQL,首先得先创建一个SQL Context 对象,或者是它的子类对象,比如HiveContext的对象:
Java版本:
JavaSparkContext sc = ...;
SQLContext sqlContext = new SQLContext(sc);
Scala 版本:
val sc:SparkContext = ...
val sqlContext = new SQLContext(sc)
import sqlContext.implicits._