美文网首页
pyspark 学习

pyspark 学习

作者: Aerio_不要坐井观天 | 来源:发表于2018-12-10 15:40 被阅读0次

spark:分布式计算引擎,用多台计算机完成计算任务

计算机角色:master与slave(物理层级),driver与exector(应用层级)

driver是资源管理和调度器,拥有spark context,可以申请资源和进行资源管理,executor负责任务的具体执行,由于spark主要是靠内存计算,对于excutor,内存都应用执行不同的操作

driver与executor都运行于jvm上,一个十分优秀的图:


spark.jpg

相关文章

网友评论

      本文标题:pyspark 学习

      本文链接:https://www.haomeiwen.com/subject/lmzrhqtx.html