我使用的是spark2.1 官方的Scala依赖是2.11, spark2.2 的依赖也是2.11 所以如果你的Scala版本是2.22或者较老版本,还是换到这个版本比较好,不然可能会报错或者出现context不能初始化的问题,
比如报:
Exception in thread "main" java.lang.NoSuchMethodError: scala.Predef$.refArrayOps([Ljava/lang/Object;)Lscala/collection/mutable/ArrayOps;
这就是版本不对导致的。
然后就是安装idea,再安装Scala插件,也很简单,
![](https://img.haomeiwen.com/i2220891/b89ddc4d9830a5f5.png)
![](https://img.haomeiwen.com/i2220891/a747b16db5db66dd.png)
然后导入依赖,
![](https://img.haomeiwen.com/i2220891/9da19013a0940c1e.png)
![](https://img.haomeiwen.com/i2220891/ff1e50f7f9b9b26c.png)
点左下角的那个➕号选择下载的spark包中的jars目录
然后就可以编写代码了。
并且能够在idea中运行。
网友评论