美文网首页
linux下spark-shell报错command not f

linux下spark-shell报错command not f

作者: RichardJuS | 来源:发表于2021-04-14 11:04 被阅读0次

[root@xxxsitapp293 bin]# spark-shell \

> --master spark://xx.xx.xx.xx:7080 \

> --executor-memory 500m \

> --total-executor-cores 1

-bash: spark-shell: command not found

错误原因:/etc/profile 未设置spark变量

解决方法:vim /etc/profile  添加 如下内容

export SPARK_HOME=/home/spark/spark-3.0.0-preview2-bin-hadoop3.2

export PATH=$SPARK_HOME/bin:$PATH

最后 source /etc/profile

相关文章

网友评论

      本文标题:linux下spark-shell报错command not f

      本文链接:https://www.haomeiwen.com/subject/qvsklltx.html