问题描述
用的是cdh6,在hue是上编辑了一个Hive sql,其中包含了汉字。在hive编辑页面执行正常,通过工作流执行hive节点时会出现中文乱码。
解决方案
在hive节点设置里添加如下参数
yarn.app.mapreduce.am.admin-command-opts -Dfile.encoding=UTF-8
如图:
详解
yarn.app.mapreduce.am.admin-command-opts是在设置MapReduce Application Master的JVM的参数。
参考(在以下链接中搜索yarn.app.mapreduce.am.admin-command-opts):
-
https://blog.csdn.net/weixin_43370502/article/details/100541863
(这个是重点) - http://oozie.apache.org/docs/5.2.0/AG_Install.html
- https://mapr.com/docs/archive/mapr40x/mapred-default.xml_28869430.html
- https://hadoop.apache.org/docs/r2.7.2/hadoop-mapreduce-client/hadoop-mapreduce-client-core/mapred-default.xml