美文网首页
window上连接集群跑hadoop问题之java.lang.U

window上连接集群跑hadoop问题之java.lang.U

作者: 小小韩_小小红 | 来源:发表于2018-11-19 16:38 被阅读0次

    在运行spark程序时,报java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.错误,如下图:

    在网上搜了很多解决方案,结果都没有解决,最后,发现是因为spark下载的版本与hadoop版本不一致,所以要解决这个问题,只需要看一下你的hadoop版本是多少,例如我这里是2.6.0 那你下载spark http://spark.apache.org/downloads.html的时候就需要下载对应版本的, 然后配置spark jar包就可以了,我用的是IntelliJ IDEA,file->Project Structure->选中‘+’号 -> java->找到下载的jar包路径->ok 就可以了
    希望可以帮到你哦~

    相关文章

      网友评论

          本文标题:window上连接集群跑hadoop问题之java.lang.U

          本文链接:https://www.haomeiwen.com/subject/gtjafqtx.html