第一步:解析把从kafka中获取的数据,转化成DStream


第二步:把DStream调用foreachRDD方法转化成RDD

第三步:使用Spark Sql操作RDD
第一步:解析把从kafka中获取的数据,转化成DStream
第二步:把DStream调用foreachRDD方法转化成RDD
第三步:使用Spark Sql操作RDD
本文标题:指定offset消费--基于Spark Streaming+sp
本文链接:https://www.haomeiwen.com/subject/dqnzqctx.html
网友评论