美文网首页技术文我爱编程
使用 hadoop streaming 编程的几点经验和教训

使用 hadoop streaming 编程的几点经验和教训

作者: starays | 来源:发表于2015-03-24 15:05 被阅读3026次

    hadoop streaming 是 hadoop 的一个多语言编程框架。关于 streaming 的使用方法可以参见 streaming 的官方文档。一些比较高级的用法,例如加载词典,使用计数器等,也可以在网上找到答案。下面是在使用 streaming 的时候踩到的一些坑,记录一下。

    1,生成本地的 tmp file

    hadoop streaming 工作的时候会将要上传的文件打包并上传。在客户端机器上,hadoop client 会将 -file 选项指定的文件拷贝到某个临时目录下,并且进行打包程序。所以,要求当前用户需要对这个临时目录具有写权限。常常遇到的错误是,当前用户对这个目录没有写权限,在提交任务的时候会报告如下的错误:

    Exception in thread "main" java.io.IOException: permission denied
    at java.io.UnixFileSystem.createFileExclusively(Native Method)
    at java.io.File.createTempFile(File.java:1879)
    at org.apache.hadoop.util.RunJar.main(RunJar.java:115)

    这个临时目录一般在hadoop 配置文件中的 core-site.xml 和 mapred-site.xml 中指定。一般来说,保证hadoop.tmp.dirmapred.temp.dir所指向的目录具有写权限就足够了。如果不想修改 core-site.xml 和 mapred-site.xml,可以在提交 streaming job 的时候通过-D选项来指定:

    hadoop jar hadoop/contrib/streaming/hadoop-streaming-1.2.0-w1.2.0.jar \
        -Dhadoop.tmp.dir=~/tmp/ \
        -Dmapred.temp.dir=~/tmp/ \
        -mapper "cat"
        -reducer "wc"
        ....
    

    2,多路输出并不是在每个版本都可用。

    hadoop streaming 中 reducer 的输出文件类似:${outputDir}/part-******,其中 ***** 是 reducer 任务的任务号。但有的时候我们希望 reducer 能够输出到多路文件,例如,对于文件符合某个条件的,输出到 part-*****-A,其余的输出到 part-*****-B。

    hadoop-v2-u7 的版本为 streaming 引入了两个多路输出的插件:SuffixMultipleTextOutputFormatSuffixMultipleSequenceFileOutputFormat。如果要直接使用这两个插件,需要保证客户端和服务器上的 hadoop 版本均为 hadoop-v2-u7 或者更高。使用这两个插件的教程可以参见hadoop streaming实战:多路输出
    需要特别注意的一点是:很多 hadoop 发行版,即使是最近的发行版,也未必有这两个插件(比如 cloudera 的发行版——当然也许是我的版本还不够高)。确定有没有这两个插件的一种方法是看一下这个发行版的 API 文档有没有 org.apache.hadoop.mapred.lib.SuffixMultipleTextOutputFormat 这个类即可(或者直接查看 HADOOP_CLASSPATH)。
    如果没有这个类,需要自己定制一个 MultipleTextOutputFormat(用java)。定制的方法可以参考hadoop多路输出

    3,/etc/fstab 为 noexec 挂载导致 permission denied

    如果 streaming 的 mapper和 reducer 使用的是二进制文件,那么在 mapper 和 reducer 中常常需要这样调用:

    hadoop jar hadoop/contrib/streaming/hadoop-streaming-1.2.0-w1.2.0.jar \
        -Dhadoop.tmp.dir=~/tmp/ \
        -Dmapred.temp.dir=~/tmp/ \
        -mapper "./mymapper" \
        -reducer "./myreducer" \
        -file "./mymapper" \
        -file "./myreducer" \
        ....
    

    不幸的是,很多时候这样调用的时候往往会出现如下的错误:

    Caused by: java.io.IOException: java.io.IOException: error=13, Permission denied
    at java.lang.UNIXProcess.<init>(UNIXProcess.java:148)
    at java.lang.ProcessImpl.start(ProcessImpl.java:65)
    at java.lang.ProcessBuilder.start(ProcessBuilder.java:453)
    ... 24 more

    这个往往是因为,streaming 需要把二进制文件分发到每台节点机器上,创建一个临时目录,把二进制文件放到这个临时目录里然后开始运行。这个临时目录一般在 hadoop 的数据磁盘上,通过 /etc/fstab 挂在到计算借点的机器,而很多时候为了安全起见,这个挂载常常指定了 noexec 的属性:

    /home/disk4 ext4 noexec,nosuid,noatime 1 2 UUID="0cbe17e7-4c00-4409-824c-d84e6a80fb5d" /home/disk5 ext4

    解决这个问题的方法有:

    • 删除 noexec 属性;
    • 使用一个 shell 脚本包装一个 shell 脚本先将二进制文件拷贝到 /tmp 等目录,然后再执行:
    #!/bin/sh
    cp ./mymapper /tmp/
    /tmp/mymapper
    

    然后指定--mapper "sh mapper.sh"来提交任务。

    相关文章

      网友评论

        本文标题:使用 hadoop streaming 编程的几点经验和教训

        本文链接:https://www.haomeiwen.com/subject/iwygxttx.html