1.可能是是版本不对应
解决方法:在它们的安装目录下libs或jars文件夹下找到其依赖的版本,如scala
2.在spark的安装目录下的jars目录下,将相应的jar包放进去
本文标题:spark整合kafka之找不到类
本文链接:https://www.haomeiwen.com/subject/tjmmeqtx.html
网友评论