美文网首页
linux下spark-shell报错command not f

linux下spark-shell报错command not f

作者: RichardJuS | 来源:发表于2021-04-14 11:04 被阅读0次

    [root@xxxsitapp293 bin]# spark-shell \

    > --master spark://xx.xx.xx.xx:7080 \

    > --executor-memory 500m \

    > --total-executor-cores 1

    -bash: spark-shell: command not found

    错误原因:/etc/profile 未设置spark变量

    解决方法:vim /etc/profile  添加 如下内容

    export SPARK_HOME=/home/spark/spark-3.0.0-preview2-bin-hadoop3.2

    export PATH=$SPARK_HOME/bin:$PATH

    最后 source /etc/profile

    相关文章

      网友评论

          本文标题:linux下spark-shell报错command not f

          本文链接:https://www.haomeiwen.com/subject/qvsklltx.html