美文网首页
hadoop 排错

hadoop 排错

作者: 阳明先生x | 来源:发表于2018-11-23 12:33 被阅读32次

    hadoop文件map排序的过程导致摸一个文件数据很大。达到1.7g, 9千多万行。导致内存超限,
    解决:过滤userid为0的数据,或者判断len个数小于三个,因为userid=0的数据太多


    图片.png

    查看文件

    cat part-00079 |more
    

    查看文件(最大的前十个的)

    ll -Sh |head  
    
    图片.png

    查看文件行数

    cat part-00079 |wc -l
    

    相关文章

      网友评论

          本文标题:hadoop 排错

          本文链接:https://www.haomeiwen.com/subject/boodqqtx.html