美文网首页
spark stdout中文乱码

spark stdout中文乱码

作者: 凡尔Issac | 来源:发表于2017-11-10 18:55 被阅读693次

    1、前言

            作为一个工作在中国的程序员,在项目开发中经常会打印中文,当然在编程中运用中文(日志等)不可避免的会碰到编码问题,刚开始遇到编码问题时,我也是挺不乐意去研究的,后来静下心慢慢的去研究发现,其实并没有那么的难。

            关于这个主题,网上看到了都是一模一样,可参照性低,下面来详细讲讲遇到问题和解决办法。

    2、问题

            现有两套CDH5.7.2集群,spark1.6-cdh5.7.2(内网和预发布),在一个Spark项目中进行了大量的中文日志打印,在win和内网发布日志打印都正常,但是发布到预发布集群,stdout中中文就乱码了。在Spark job UI上看到日志如图:

            由于在内网和开发集群上都没有问题,并且预发布和内网机器系统一样,检查系统的默认编码也是一致,如下图:

            所以认为是不是Spark ui上的编码存在问题,于是查看stdout所在executor机器的stdout文件的编码,如图:

            这就明白为啥会乱码了,日志输出的编码格式就不对了,不乱码才怪呢!可是这个日志输出格式在哪配置呢?

    3、问题排查过程

            要知道java程序或者其他程序写文件时,会先将对象转为byte,然后再写入磁盘,磁盘只能存储二进制文件,所以查看String.getByte方法,发现编码来自这段代码:

            这里有一个defaultCharset,继续更进:

             至此也就明白一个java程序的编码设置位置,这里要谢谢这位博主的文章:http://blog.csdn.net/u010234516/article/details/52842170 ,他还有一篇解释UTf-8与GBK互转的文章,想一解编码疑惑的同学可以参考参考。

            这时需要先确认启动的Spark程序运用了什么编码格式,这个在Spark Job UI上就可以一目了然,如下图:

            这也就是日志文件的编码格式,那么要怎么将编码格式更改为UTF-8呢?在代码里设置是不管用的,想知道为啥?点这里

            首先需要明确,一个java、scala程序的发布包括编写、编译和运行,那么也就涉及三个过程的编码格式,我们来一个个的确认。首先确认编码时采用的编码格式为UTF-8,这个采用idea和eclipse编码都可以非常简单的查看,idea如下图:

            显然代码编写时的编码没有问题,再看编译时的编码,我采用maven进行打包编译的,在pom.xml中有这么一行:

            也就是说编写、编译的编码格式都正常,那就是运行时的编码存在问题,那就需要在启动java进程时,设置编码格式,这里请参照Spark作业提交时的环境变量来源

            最后再spark-submit的时候增加如下参数即可:参照Spark配置参数

    --conf spark.driver.extraJavaOptions=" -Dfile.encoding=utf-8 " \

    --conf spark.executor.extraJavaOptions=" -Dfile.encoding=utf-8 " \

    那么spark默认在哪获取这个file.encoding呢?容我卖再研究下,写到下一篇文章里。

    相关文章

      网友评论

          本文标题:spark stdout中文乱码

          本文链接:https://www.haomeiwen.com/subject/hkcimxtx.html