spark Sql, dataframe, Dataset 和 Streaming编程指南

四:spark Sql, dataframe, Dataset

4.1:Spark SQL 的用法之一是执行 SQL 查询, 它也可以从现有的 Hive 中读取数据

SparkSession: Spark 中所有功能的入口是 SparkSession 类

from pyspark.sql import SparkSession

spark = SparkSession.builder.appName("Python Spark SQL basic example").config("spark.some.config.option", "some-value").getOrCreate()

4.2: Dataset 和 DataFrame

Dataset 是一个分布式数据集,它是 Spark 1.6 版本中新增的一个接口, 它结合了 RDD(强类型,可以使用强大的 lambda 表达式函数) 和 Spark SQL 的优化执行引擎的好处。Dataset 可以从 JVM 对象构造得到,随后可以使用函数式的变换(map,flatMap,filter 等) 进行操作

DataFrame 是按命名列方式组织的一个 Dataset。从概念上来讲,它等同于关系型数据库中的一张表或者 R 和 Python 中的一个 data frame, 只不过在底层进行了更多的优化。DataFrame 可以从很多数据源构造得到,比如:结构化的数据文件,Hive 表,外部数据库或现有的 RDD

4.3:同过spark读取的文件是dataframe:

    df = spark.read.json('./dense_report.json') 都json文件

    df.show()

    df.select('summary').show()

    df.select(df['options'], df['summary']).show()

    df.filter(df['summary']>20).show()

    Count people by age 按年龄计算人数

    df.groupBy('summary').count().show()

4.4:如何需要运用sql:

    df.createOrReplaceTempView("people")

    sqldf = spark.sql('select * from people')

或者:

    df.createGlobalTempView("people")

    spark.newSession().sql('select * from global_temp.people').show()

sqldf.show()

4.5如果读取的是txt文件:

    sc = SparkContext('local', 'sql app')

    lines = sc.textFile('data.txt')

    parts = lines.map(lambda l: l.split(','))

    people = parts.map(lambda p: Row(name=p[1], age=p[6]))

    spark = SparkSession(sc)

    schemaPeople = spark.createDataFrame(people)

    schemaPeople.createOrReplaceTempView("people")

    # schemaPeople.show()

    teenagers = spark.sql('select * from people where age>500 and  age<1000 ')

    # 对查询的数据进行修改

    teeNames = teenagers.rdd.map(lambda p: "Name: "+p.name).collect() 

    print(f"teeNames:{teeNames}")

    for name in teeNames:

        print(name)

4.6:Parquet 文件

Parquet 是一种列式存储格式,很多其它的数据处理系统都支持它。Spark SQL 提供了对 Parquet 文件的读写支持,而且 Parquet 文件能够自动保存原始数据的 schema。写 Parquet 文件的时候,所有列都自动地转化成 nullable,以便向后兼容

    '''

        将json文件转化为parquet,然后读取parquet文件创建视图进行查询

    '''

    sc = SparkContext('local', 'parquet')

    spark = SparkSession(sc)

    df = spark.read.json("./people.json")

    df.write.parquet("people.parquet")

    people_df = spark.read.parquet("people.parquet")

    people_df.createOrReplaceTempView("people")

    teenage = spark.sql("select * from people where age>=13 and age<=19")

    teenage.show()

    '''

    生成2个parquet 文件, 将其进行合并


    '''

    sc = SparkContext('local', 'merge parquet')

    spark = SparkSession(sc)

    df1 = spark.createDataFrame(sc.parallelize(range(1, 6)).map(lambda l: Row(single=l, double=l**2)))

    df1.write.parquet("./test_table/key=1")

    df2 = spark.createDataFrame(sc.parallelize(range(6, 11)).map(lambda p: Row(single=p, triple=p**3)))

    df2.write.parquet("./test_table/key=2")

    merge_df = spark.read.option('mergeSchema', "true").parquet("./test_table")

    # merge_df.printSchema()

    merge_df.createOrReplaceTempView('merge')

    merge_df.show()

    # 或者直接在文件上运行sql

    df = spark.sql("select * from parquet.`./users.parquet`")


4.7:spark集成hive从hive上读取数据

    from pyspark.sql import SparkSession

    spark = SparkSession.builder.master("local[*]").appName("hive app").enableHiveSupport().getOrCreate()

    spark.sql("CREATE TABLE IF NOT EXISTS srcpp (key INT, value STRING) USING hive")

    spark.sql("load data local inpath './kv1.txt' into table srcpp")

    # Queries are expressed in HiveQL 查询以HiveQL表示

    spark.sql('select * from srcpp').show()

    其中关键要加上:enableHiveSupport()

4.8: spark集成mysql:

Spark SQL也包括一个可以使用JDBC从其它数据库读取数据的数据源。该功能应该优于使用JdbcRDD,因为它的返回结果是一个DataFrame,而在Spark SQL中DataFrame处理简单,且和其它数据源进行关联操作。JDBC数据源在Java和Python中用起来很简单,因为不需要用户提供一个ClassTag

连接数据库读取

方法一:

dbcDF = spark.read \

    .format("jdbc") \

    .option("url", "jdbc:postgresql:dbserver") \

    .option("dbtable", "schema.tablename") \

    .option("user", "username") \

    .option("password", "password") \

    .load()

方法二:

jdbcDF2 = spark.read \

    .jdbc("jdbc:postgresql:dbserver", "schema.tablename",

          properties={"user": "username", "password": "password"})

连接数据库写入

方法一:

# Saving data to a JDBC source

jdbcDF.write \

    .format("jdbc") \

    .option("url", "jdbc:postgresql:dbserver") \

    .option("dbtable", "schema.tablename") \

    .option("user", "username") \

    .option("password", "password") \

    .save()

方法二

jdbcDF2.write \

    .jdbc("jdbc:postgresql:dbserver", "schema.tablename",

          properties={"user": "username", "password": "password"})

方法三

# Specifying create table column data types on write

jdbcDF.write \

    .option("createTableColumnTypes", "name CHAR(64), comments VARCHAR(1024)") \

    .jdbc("jdbc:postgresql:dbserver", "schema.tablename",

          properties={"user": "username", "password": "password"})

例子:

    sc = SparkContext('local', 'mysql  view')

    spark = SparkSession(sc)

    df = spark.read.parquet("./people.parquet")

    df.show()

    # 将结果写进mysql数据库

    url = "jdbc:mysql://127.0.0.1:3306/data_test?useUnicode=true&characterEncoding=UTF-8&serverTimezone=GMT%2B8"

    table = "person"

    mode = "overwrite"

    properties = {'user': 'root', 'password': 'hgh15070417641'}

    df.write.jdbc(url, table, mode, properties=properties)

其中需要下载mysql-connector-java.jar, 下载路径:

https://mvnrepository.com/artifact/mysql/mysql-connector-java

选择对应的版本 我的java版本:11.0.8  pyspark: 3.0.1,  Scala version 2.12.10, 选择了mysql-connector-java-8.0.21.jar

4.9:性能调优:

对于有一定计算量的Spark任务,可以将数据放入内存缓存或开启一些试验选项来提升性能

通过调用 spark.cacheTable(“tableName”) 或者 dataFrame.cache() 方法, Spark SQL可以使用一种内存列存储格式缓存表。接着Spark SQL只扫描必要的列,并且自动调整压缩比例,以最小化内存占用和GC压力。你可以调用 spark.uncacheTable(“tableName”) 方法删除内存中的表

五:spark Streaming:

5.1 StreamingContext介绍:

from pyspark.streaming import StreamingContext

'''

StreamingContext(sparkContext, batchDuration=None, jssc=None

'''

sparkContext 功能入口点, batchDuration:持续时间

例子:

from pyspark import SparkContext, SparkConf

from pyspark.streaming import StreamingContext

conf = SparkConf()\

        .setMaster("local[*]")\

        .setAppName("stream app")\

        .set("spark.streaming.backpressure.enabled", "True")\

        .set("spark.streaming.receiver.maxRate", "100")

    sc = SparkContext.getOrCreate(conf)

    ssc = StreamingContext(sc, 3)

    # 形成DStream

    dstream = ssc.socketTextStream('127.0.0.1', 9999)

    # 词频统计

    result = dstream.flatMap(lambda line: line.split("\t")).map(lambda word: (word, 1)).reduceByKey(lambda a, b: a+b)

    result.pprint()

    # 开启程序

    ssc.start()

    ssc.awaitTermination()

注意: 运行这个方法前需要线运行:  nc -lk 9999

5.2: SparkStreaming 和kafka集成

spark-streaming-kafka-0-10 和 spark-streaming-kafka-0-8

1:spark-streaming-kafka-0-8 :

SparkStreaming 和kafka集成有2种模式:

1: receiver 模式(数据接收器模式)

2: direct模式(直接读取数据)

注意: sparkstreaming的被压机制: 为了解决数据进来的太快, 集群计算速度跟不上, 可以开启背压机制来进行限速:set("spark.streaming.backpressure.enabled", "True")

        receiver:set("spark.streaming.receiver.maxRate", "100") 表示接收数据最大的速率

        direct模式: set("spark.streaming.kafka.maxRatePerPartition") : 表示sparkstreaming每个批次每一个分区每秒钟接受的数据的条数, 默认是无限制

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,772评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,458评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,610评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,640评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,657评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,590评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,962评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,631评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,870评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,611评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,704评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,386评论 4 319
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,969评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,944评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,179评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,742评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,440评论 2 342

推荐阅读更多精彩内容