hive元数据

Hive元数据是什么?

元数据,即解释数据的数据。在Hive架构中,数据库/表内实际数据存放在HDFS之类的分布式存储系统中,但这些数据并不带有数据库/表/字段之类的描述信息,这些信息均由单独的关系型数据库维护(一般用MySQL)。

在安装Hive时,需要在hive-site.xml文件中配置元数据相关信息。若不配置默认使用Hive自带的Derby数据库,但这个数据库是单session的,不便于使用。

hive-site.xml配置元数据库可参见官网文档:https://cwiki.apache.org/confluence/display/Hive/AdminManual+metastore+Administration

image

Hive元数据库表描述

1.1 存储Hive版本的元数据表(VERSION)

1.1.1 VERSION

该表比较简单,但很重要。

VER_ID SCHEMA_VERSION VERSION_COMMENT
ID主键 Hive版本 版本说明
1 0.13.0 Set by MetaStore

如果该表出现问题,根本进入不了Hive-Cli。

比如该表不存在,当启动Hive-Cli时候,就会报错”Table ‘hive.version’ doesn’t exist”。

1.2 Hive数据库相关的元数据表(DBS、DATABASE_PARAMS)

1.2.1 DBS

该表存储Hive中所有数据库的基本信息,字段如下:

元数据表字段 说明 示例数据
DB_ID 数据库ID 2
DESC 数据库描述 测试库
DB_LOCATION_URI 数据库HDFS路径 hdfs://namenode/user/hive/warehouse/lyg1234.db
NAME 数据库名 lyg1234
OWNER_NAME 数据库所有者用户名 lyg1234
OWNER_TYPE 所有者角色 USER

1.2.2 DATABASE_PARAMS

该表存储数据库的相关参数,在CREATE DATABASE(创建数据库)时候用

WITH DBPROPERTIES (property_name=property_value, …)指定的参数。

元数据表字段 说明 示例数据
DB_ID 数据库ID 2
PARAM_KEY 参数名 createdby
PARAM_VALUE 参数值 lyg1234

DBSDATABASE_PARAMS这两张表通过DB_ID字段关联。

提示:一般以DBS为主表,DATABASE_PARAMS为右表,因为不是所有的数据库都有参数

1.3 Hive表和视图相关的元数据表

主要有TBLS、TABLE_PARAMS、TBL_PRIVS,这三张表通过TBL_ID关联。

1.3.1 TBLS

该表中存储Hive表、视图、索引表的基本信息。

元数据表字段 说明 示例数据
TBL_ID 表ID 1
CREATE_TIME 创建时间(时间戳) 1436317071
DB_ID 数据库ID 2,对应DBS中的DB_ID
LAST_ACCESS_TIME 上次访问时间 1436317071
OWNER 所有者 USER
RETENTION 保留字段 0
SD_ID 序列化配置信息 86,对应SDS表中的SD_ID
TBL_NAME 表名 lyg1234
TBL_TYPE 表类型 MANAGED_TABLE(内部表)、EXTERNAL_TABLE(外部表)、INDEX_TABLE(索引表)、VIRTUAL_VIEW(视图)
VIEW_EXPANDED_TEXT 视图的详细HQL语句 select lyg1234.pt, lyg1234.pcid from liuxiaowen.lyg1234
VIEW_ORIGINAL_TEXT 视图的原始HQL语句 select * from lyg1234

在Hive上有两种类型的表,一种是Managed Table(内部表),另一种是External Table(外部表)。它俩的主要区别在于:当我们drop表时,Managed Table会同时删去data和meta data,而External Table只会删meta data。

1.3.2 TABLE_PARAMS

该表存储表/视图的属性信息。

元数据表字段 说明 示例数据
TBL_ID 表ID 1
PARAM_KEY 属性名 totalSize、numRows、EXTERNAL
PARAM_VALUE 属性值 970107336、21231028、TRUE

1.3.3TBL_PRIVS

该表存储表/视图的授权信息

元数据表字段 说明 示例数据
TBL_GRANT_ID 授权ID 1
CREATE_TIME 授权时间 1436320455
GRANT_OPTION 0
GRANTOR 授权执行用户 liuxiaowen
GRANTOR_TYPE 授权者类型 USER
PRINCIPAL_NAME 被授权用户 username
PRINCIPAL_TYPE 被授权用户类型 USER
TBL_PRIV 权限 Select、Alter
TBL_ID 表ID 22,对应TBLS表中的TBL_ID

1.4 Hive文件存储信息相关的元数据表

主要涉及SDS(保存文件存储的基本信息)、SD_PARAMS(存储Hive存储的属性信息)、SERDES(存储序列化使用的类信息)、SERDE_PARAMS(存储序列化使用的类信息)

由于HDFS支持的文件格式很多,而建Hive表时候也可以指定各种文件格式,Hive在将HQL解析成MapReduce时候,需要知道去哪里,使用哪种格式去读写HDFS文件,而这些信息就保存在这几张表中。

1.4.1 SDS

该表保存文件存储的基本信息,如INPUT_FORMAT(文件输入格式)OUTPUT_FORMAT(输出格式)是否压缩等。

TBLS表中的SD_ID与该表关联,可以获取Hive表的存储信息。

元数据表字段 说明 示例数据
SD_ID 存储信息ID 1
CD_ID 字段信息ID 21,对应COLUMNS_V2表
INPUT_FORMAT 文件输入格式 org.apache.hadoop.mapred.TextInputFormat
IS_COMPRESSED 是否压缩 0
IS_STOREDASSUBDIRECTORIES 是否以子目录存储 0
LOCATION HDFS路径 hdfs://namenode/hivedata/warehouse/ut.db/t_lyg
NUM_BUCKETS 分桶数量 5
OUTPUT_FORMAT 文件输出格式 org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat
SERDE_ID 序列化类ID 3,对应SERDES表

1.4.2 SD_PARAMS

该表存储Hive存储的属性信息,在创建表时候使用

STORED BY ‘storage.handler.class.name’ [WITH SERDEPROPERTIES (…)指定。

元数据表字段 说明 示例数据
SD_ID 存储配置ID 1
PARAM_KEY 存储属性名
PARAM_VALUE 存储属性值
元数据表字段 说明 示例数据
SD_ID 存储配置ID 1
PARAM_KEY 存储属性名
PARAM_VALUE 存储属性值

1.4.3 SERDES

该表存储序列化使用的类信息

元数据表字段 说明 示例数据
SERDE_ID 序列化类配置ID 1
NAME 序列化类别名
SLIB 序列化类 org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe

1.4.4 SERDE_PARAMS

该表存储序列化的一些属性、格式信息,比如:行、列分隔符

元数据表字段 说明 示例数据
SERDE_ID 序列化类配置ID 1
PARAM_KEY 属性名 field.delim
PARAM_VALUE 属性值 ,

SDS 表的CD_ID(字段信息ID)对应CDS表CD_ID(字段信息ID)
SDS 表的SERDE_ID(序列化类ID)对应SERDES 表SERDE_ID(序列化类配置ID )查找表的序列化信息
SDS 表的 SD_ID(存储信息ID )对应 SD_PARAMS 表 SD_ID(存储配置ID ) 查找表的属性信息
SERDES 表的 SERDE_ID(序列化类配置ID )对应 SERDE_PARAMS表 SERDE_ID(序列化类配置ID ) 查找表的存储序列化的一些属性、格式信息,比如:行、列分隔符
SDS表的 CD_ID(字段信息ID)对应 COLUMNS_V2 表 CD_ID(字段信息ID ) 查找表的字段信息

1.5 Hive表字段相关的元数据表

主要涉及COLUMNS_V2

1.5.1 COLUMNS_V2

该表存储表对应的字段信息。 关于中文乱码问题

元数据表字段 说明 示例数据
CD_ID 字段信息ID 1
COMMENT 字段注释
COLUMN_NAME 字段名 pt
TYPE_NAME 字段类型 string
INTEGER_IDX 字段顺序 2

COLUMNS_V2(存储表对应的字段信息):通过CD_ID和其他字段建立关系

1.6 Hive表分区相关的元数据表

主要涉及PARTITIONS(存储表分区的基本信息)、PARTITION_KEYS(存储分区的字段信息)、PARTITION_KEY_VALS(存储分区字段值)、PARTITION_PARAMS(存储分区的属性信息)

1.6.1 PARTITIONS

该表存储表分区的基本信息。

元数据表字段 说明 示例数据
PART_ID 分区ID 1
CREATE_TIME 分区创建时间
LAST_ACCESS_TIME 最后一次访问时间
PART_NAME 分区名 pt=2015-06-12
SD_ID 分区存储ID 21
TBL_ID 表ID 2

1.6.2PARTITION_KEYS

该表存储分区的字段信息。

元数据表字段 说明 示例数据
TBL_ID 表ID 2
PKEY_COMMENT 分区字段说明
PKEY_NAME 分区字段名 pt
PKEY_TYPE 分区字段类型 string
INTEGER_IDX 分区字段顺序 1

表PARTITION_KEYS通过 TBL_ID(表ID )和TBLS (表的基本信息)TBL_ID(表ID )进行关联

1.6.3 PARTITION_KEY_VALS

该表存储分区字段值。

元数据表字段 说明 示例数据
PART_ID 分区ID 2
PART_KEY_VAL 分区字段值 2015-06-12
INTEGER_IDX 分区字段值顺序 0

1.6.4 PARTITION_PARAMS

该表存储分区的属性信息。

元数据表字段 说明 示例数据
PART_ID 分区ID 2
PARAM_KEY 分区属性名 numFiles、numRows
PARAM_VALUE 分区属性值 15、502195

表之间的关系:

PARTITIONS(存储表分区的基本信息) 的PART_ID(分区ID)、SD_ID(分区存储ID )、TBL_ID(表ID)和其他表相关联

PARTITION_KEYS(该表存储分区的字段信息) 的TBL_ID(表ID)和其他表相关联

PARTITION_KEY_VALS(该表存储分区字段值)通过 PART_ID(分区ID)和其他表相关联

PARTITION_PARAMS(该表存储分区的属性信息)通过 PART_ID(分区ID)和其他表相关联

1.7 其他不常用的元数据表

1.7.1 DB_PRIVS

数据库权限信息表。通过GRANT语句对数据库授权后,将会在这里存储。

1.7.2 IDXS

索引表,存储Hive索引相关的元数据

1.7.3 INDEX_PARAMS

索引相关的属性信息。

1.7.4 TAB_COL_STATS

表字段的统计信息。使用ANALYZE语句对表字段分析后记录在这里。

1.7.5 TBL_COL_PRIVS

表字段的授权信息

1.7.6 PART_PRIVS

分区的授权信息

1.7.7 PART_COL_STATS

分区字段的统计信息。

1.7.8 PART_COL_PRIVS

分区字段的权限信息。

1.7.9 FUNCS

用户注册的函数信息

1.7.10 FUNC_RU

用户注册函数的资源信息

2 示例

建表语句:

CREATE TABLE lyg1234 ( 
cookieid STRING, 
url STRING,
 ua STRING, 
ip STRING,
 createtime STRING
) COMMENT 'This is the page view table' 
partitioned BY (day STRING,site STRING) 
ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' 
stored AS ORC;

建表执行之后,元数据中以下表的数据会有所变化

  • TBLS

生成了表lyg1234的基本信息

SELECT * FROM TBLS WHERE TBL_NAME = ‘lyg1234’;

元数据表字段 数据
TBL_ID 41509
CREATE_TIME 1436324659
DB_ID 11
LAST_ACCESS_TIME 0
OWNER liuxiaowen
RETENTION 0
SD_ID 91740
TBL_NAME lyg1234
TBL_TYPE MANAGED_TABLE
VIEW_EXPANDED_TEXT NULL
VIEW_ORIGINAL_TEXT NULL
  • TABLE_PARAMS

select * from TABLE_PARAMS WHERE TBL_ID=41509

TBL_ID PARAM_KEY PARAM_VALUE
41509 comment This is the page view table
41509 transient_lastDdlTime 1436324659
  • SDS

SELECT * FROM SDS WHERE SD_ID = 91740

元数据表字段 数据
SD_ID 91740
CD_ID 41564
INPUT_FORMAT org.apache.hadoop.hive.ql.io.orc.OrcInputFormat
IS_COMPRESSED 0
IS_STOREDASSUBDIRECTORIES 0
LOCATION hdfs://namenode/hivedata/warehouse/liuxiaowen.db/lyg1234
NUM_BUCKETS -1
OUTPUT_FORMAT org.apache.hadoop.hive.ql.io.orc.OrcOutputFormat
SERDE_ID 91740
  • SERDES

select * from SERDES WHERE SERDE_ID = 91740

元数据表字段 数据
SERDE_ID 91740
NAME
SLIB org.apache.hadoop.hive.ql.io.orc.OrcSerde
  • SERDE_PARAMS

select * from SERDE_PARAMS WHERE SERDE_ID=91740

SERDE_ID PARAM_KEY PARAM_VALUE
91740 field.delim ,
91740 serialization.format ,
  • COLUMNS_V2

select * from COLUMNS_V2 WHERE CD_ID=41564 ORDER BY INTEGER_IDX

CD_ID COMMENT COLUMN_NAME TYPE_NAME INTEGER_IDX
41564 cookieid string 0
41564 url string 1
41564 ua string 2
41564 ip string 3
41564 createtime string 4
  • PARTITION_KEYS

select * from PARTITION_KEYS WHERE TBL_ID=41509

TBL_ID PKEY_COMMENT PKEY_NAME PKEY_TYPE INTEGER_IDX
41509 day string 0
41509 site string 1

再插入数据:

<pre class="md-fences md-end-block" lang="" contenteditable="false" cid="n791" mdtype="fences" style="box-sizing: border-box; overflow: visible; font-family: Consolas, "Liberation Mono", Courier, monospace; font-size: 0.9em; white-space: pre; text-align: left; break-inside: avoid; display: block; background-image: inherit; background-position: inherit; background-size: inherit; background-repeat: inherit; background-attachment: inherit; background-origin: inherit; background-clip: inherit; background-color: rgb(248, 248, 248); position: relative !important; border: 1px solid rgb(221, 221, 221); border-radius: 3px; padding: 8px 1em 6px; margin-bottom: 15px; margin-top: 15px; width: inherit;">
INSERT OVERWRITE TABLE lyg1234 PARTITION (day = '2015-07-08', site = 'lyg1234.com') SELECT 'cookie1' AS cookieid,'http://lyg1234.com' AS url,'firefox' AS ua,'127.0.0.1' AS ip,'2015-07-08 11:00:01' AS createtime FROM dual limit 1; </pre>

插入数据执行完之后,以下表的元数据发生变化:

  • PARTITIONS

select * from PARTITIONS WHERE TBL_ID=41509

PART_ID CREATE_TIME LAST_ACCESS_TIME PART_NAME SD_ID TBL_ID
54472 1436325812 0 day=2015-07-08/site=lyg1234.com 91746 41509
  • SDS

select * from SDS WHERE SD_ID=91746

注意:这里的存储和表的存储是不同的,因为每个分区也会有一个SD

元数据表字段 数据
SD_ID 91746
CD_ID 41564
INPUT_FORMAT org.apache.hadoop.hive.ql.io.orc.OrcInputFormat
IS_COMPRESSED 0
IS_STOREDASSUBDIRECTORIES 0
LOCATION hdfs://namenode/hivedata/warehouse/liuxiaowen.db/lyg1234/day=2015-07-08/site=lyg1234.com
NUM_BUCKETS -1
OUTPUT_FORMAT org.apache.hadoop.hive.ql.io.orc.OrcOutputFormat
SERDE_ID 91746
  • PARTITION_KEY_VALS

select * from PARTITION_KEY_VALS where PART_ID=54472

PART_ID PART_KEY_VAL INTEGER_IDX
54472 2015-07-08 0
54472 lyg1234.com 1
  • PARTITION_PARAMS

select * from PARTITION_PARAMS where PART_ID = 54472

PART_ID PARAM_KEY PARAM_VALUE
54472 COLUMN_STATS_ACCURATE true
54472 numFiles 1
54472 numRows 1
54472 rawDataSize 408
54472 totalSize 703
54472 transient_lastDdlTime 1436325813

在分区的属性里面,生成的该分区的统计信息(Statistics)。

三 Hive元数据库表汇总

表名 表描述 与其他表关联字段
BUCKETING_COLS Hive表clustered by(分桶)字段信息(字段名,字段序号) 。存储bucket字段信息,通过SD_ID与其他表关联 SD_ID(存储信息ID):(SD_ID) REFERENCES SDS (SD_ID)
CDS 一个字段CD_ID,与SDS表关联 CD_ID(字段信息ID)
COLUMNS_V2 存储表对应的字段信息,通过CD_ID与其他表关联 CD_ID(字段信息ID)
DATABASE_PARAMS 该表存储数据库的相关参数,在CREATE DATABASE(创建数据库)时候用 ,WITH DBPROPERTIES (property_name=property_value, …)指定的参数。 DB_ID(数据库ID)
DBS hive的数据库信息(描述、数据库的默认目录空间、名称、用户名、用户类型) ,存储hive的database信息(hdfs location信息,owner信息等) DB_ID(数据库ID)
FUNCS 用户注册的函数信息 DB_ID(数据库ID) FUNC_ID(函数ID)
FUNC_RU 用户注册函数的资源信息 FUNC_ID(函数ID)
GLOBAL_PRIVS 全局变量,与表无关
IDXS 索引表,存储Hive索引相关的元数据 SD_ID(存储信息ID) INDEX_ID(索引ID)
INDEX_PARAMS 索引相关的属性信息。 INDEX_ID(索引ID)
PARTITIONS 该表存储表分区的基本信息 SD_ID(存储信息ID、 PART_ID(分区ID) TBL_ID(表ID)
PARTITION_KEYS 该表存储分区的字段信息,TBL_ID关联 TBL_ID(表ID)
PARTITION_KEY_VALS 该表存储分区字段值 ,通过PART_ID关联。与PARTITION_KEYS共用同一个字段INTEGER_IDX来标示不同的分区字段。 PART_ID(分区ID)INTEGER_IDX(分区字段顺序)
PARTITION_PARAMS 存储某分区相关信息,包括文件数,文件大小,记录条数等。通过PART_ID关联 PART_ID(分区ID)
PART_COL_PRIVS 分区的授权信息 PART_ID(分区ID)
PART_COL_STATS 分区字段的统计信息。 PART_ID(分区ID)
PART_PRIVS 分区的授权信息 PART_ID(分区ID)
ROLES 角色表,和GLOBAL_PRIVS配合,与表无关 ROLE_ID(角色id)
SDS 该表保存文件存储的基本信息,如INPUT_FORMAT(文件输入格式)OUTPUT_FORMAT(输出格式)是否压缩等。 SD_ID、CD_ID、SERDE_ID
SD_PARAMS 该表存储Hive存储的属性信息,在创建表时候使用STORED BY ‘storage.handler.class.name’ [WITH SERDEPROPERTIES (…)指定。 SD_ID
SEQUENCE_TABLE 元数据主键序列增长维护表 ,存储sqeuence相关信息,与表无关
SERDES 存储序列化反序列化使用的类 SERDE_ID(序列化类配置ID)
SERDE_PARAMS 该表存储序列化的一些属性、格式信息,比如:行、列分隔符,通过SERDE_ID关联 SERDE_ID(序列化类配置ID)
SKEWED_COL_NAMES skew表对应的倾斜字段,主键SD_ID、INTEGER_IDX作为联合主键,该信息挂在了table上 SD_ID
SKEWED_COL_VALUE_LOC_MAP 偏移列值与本地文件的映射关系 SD_ID
SKEWED_STRING_LIST 偏移的字符串列表 STRING_LIST_ID
SKEWED_STRING_LIST_VALUES 偏移字符串列表值 STRING_LIST_ID
SKEWED_VALUES 偏移值 SD_ID_OID、INTEGER_IDX
SORT_COLS 排序字段,通过SD_ID关联 SD_ID
TABLE_PARAMS 该表存储表/视图的属性信息,是否外部表,通过TBL_ID关联 TBL_ID
TAB_COL_STATS 表字段的统计信息。 TBL_ID
TBLS 该表中存储Hive表、视图、索引表的基本信息,关联字段DB_ID,SD_ID, TBL_ID、DB_ID、SD_ID
TBL_COL_PRIVS 该表字段存储表/视图的授权信息 TBL_ID
TBL_PRIVS 该表存储表/视图的授权信息,通过TBL_ID关联 TBL_ID
VERSION 版本

四 Hive中文乱码多字符分隔符

问题还原

创建stu表,加载如下两条数据,分隔符为:$%#, 并查询出来

Lyg$%#30$%#北京

Lyg$%#31$%#深圳

[root@hadoop001 hive-learn]# cat hw_stu.txt

Lyg$%#30$%#北京

Lyg$%#31$%#深圳

需要解决的问题

1)创建表时,元数据信息中的comment是中文,但存入MySQL会乱码

2)插入中文数据,查询会乱码

3)文本字段分隔符是多字符,如何处理

4)使用Spark查询时,默认不支持多字符分隔符解析(ClassNotFoundException)

问题解决

修改元数据库(MySQL)以下几个字段编码

默认编码为latin,改为utf8

alter table COLUMNS_V2 modify column COMMENT varchar(256) character set utf8;
alter table TABLE_PARAMS modify column PARAM_VALUE varchar(4000) character set utf8; -- 表级comment会存在该字段 
alter table PARTITION_PARAMS modify column PARAM_VALUE varchar(4000) character set utf8; 
alter table PARTITION_KEYS modify column PKEY_COMMENT varchar(4000) character set utf8; 
alter table INDEX_PARAMS modify column PARAM_VALUE varchar(4000) character set utf8;

修改hive-site.xml中jdbc_url

加上utf8编码:

jdbc:mysql://hadoop001:3306/hive?createDatabaseIfNotExist=true&useSSL=false&characterEncoding=UTF-8

建表

多字符分隔符特殊写法请注意!

drop table if exists t_stu;
  create table t_stu(
 name string comment '姓名' , 
age string comment '年龄' , 
city string comment '城市' 
) comment '学生表' ROW FORMAT SERDE 'org.apache.hadoop.hive.contrib.serde2.MultiDelimitSerDe' 
WITH SERDEPROPERTIES ('field.delim'='$%#');
 -- 插入数据 
load data local inpath '/root/source/hive-learn/hw_stu.txt' into table t_stu;

测试

查看元数据

建表成功后,查看在元数据库中,备注信息是否乱码

image.jpeg
image.jpeg

Hive查看数据

image.jpeg

Spark查看数据

添加解析多字符分隔符的jar包

spark-shell --jars /root/lib/mysql-connector-java-5.1.47.jar,/root/app/hive/lib/hive-contrib-1.1.0-cdh5.16.2.jar

+----+---+----+
|name|age|city|
+----+---+----+
|Lyg| 30|北京|
|小李同学| 31|深圳|
+----+---+----+

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,132评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,802评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,566评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,858评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,867评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,695评论 1 282
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,064评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,705评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,915评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,677评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,796评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,432评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,041评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,992评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,223评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,185评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,535评论 2 343

推荐阅读更多精彩内容