美文网首页大数据,机器学习,人工智能大数据 爬虫Python AI Sql玩转大数据
学习环境效率太低?试试这样搭建Spark,学习效率提高10倍!

学习环境效率太低?试试这样搭建Spark,学习效率提高10倍!

作者: Java架构领域 | 来源:发表于2020-04-13 14:28 被阅读0次

    像学习Spark这类大数据平台,搭建环境,是一件很费时费力的事情。特别是当你想使用多台机器模拟真实生产环境时。

    为了更有效的学习Spark,我决定将自己的学习环境按生产环境的要求来搭建。但是真实生产环境的群集往往由多个集群组成:Hadoop/Hbase集群、Zookeeper集群、Spark集群。掐指一算,至少需要6台机器了。

    我们真的需要买6台机器吗?当然不是,我们只需要在自己的电脑上虚拟化出6台就好了。而我的电脑只有16G,虚拟化6台太吃力了。最终,我决定搭建成以下结构:

    以下是搭建过程:

    环境的搭建

    按以前学习像Spring这些类Web,开发环境的搭建非常简单,也就引入几个依赖,添加几项配置,就好了。

    但是学习Spark,我敢肯定不少人在环境搭建这一环节踩坑。正因为这样,才会有此博客。

    Spark不是一框架,而是一个分布式的计算平台。所以,你不能通过引入依赖,添加配置就完成搭建。需要先将Spark这个平台部署起来。Spark支持4种部署方式:

    单机:同一台机器,同一进程,不同线程运行Master和Worker

    伪分布式:同一台机器,不同进程分别运行Master和Worker

    Standalone方式:多台机器分别运行Master和Worker,自己解决资源调度

    Yarn和Mesos方式:将资源调度这一职责外包出去

    虽然Spark的单机部署方式很简单,但是没有人会在生产环境上使用单机部署方式。而伪分布式我见不少人搭建,以此为基础来学习Spark。但我不推荐。

    因为在线上真正运行的是Standalone、Yarn、Mesos方式,也称为完全分布式的方式。只有一开始就使用完全分布式的方式来进行开发调试,你才会学习到生产环境会遇到什么问题。

    机器准备

    如果采取完全分布式的部署方式来学习,你必须准备很多台机器,就像上面所说的。

    我想大多数人都会选择虚拟化方案来得到多台机器。我推荐Virtualbox。

    我见不少人手工的创建一台机器,然后安装操作系统,接着想要多少台机器,就复制几台,甚至还要分别进入机器修改每台机器的IP。。。

    这样的方式,效率低,又很难与你的同事分享你的环境(也就是统一一个团队的开发环境,以避免不同开发环境不同引起的问题)。

    所以,我一开始就使用Vagrant。把机器的虚拟化这一动作进行自动化和版本化(提交到git仓库中)。使用了Vagrant,你只需要在Vagrantfile中定义机器数据、机器的系统镜像、CPU个数、内存,然后执行vagrant up,就可以得到你想要的机器了。要与同事统一这些机器,只需要他使用相同的Vagrantfile就好了。 同时,这样,还能实现:统一开发环境与生产环境使用同样或相近的机器环境。

    以下是一个Vagrantfile样例:

    搭建Spark集群

    在准备好机器后,接下来做的就是搭建Spark集群。我会选择Ansible来实现自动化搭建,而不是一台台机器登上去,一条条命令的执行安装。

    那么,只是学习阶段,我为什么要自动化呢?正因为在学习阶段,我们更要自动化搭建过程。作为新手很容易把环境弄乱了,又没法一下子查到原因。但是自动化后,意味着版本化了搭建脚本,查原因时,只要对比版本库就好了。

    同时,也因为我要搭建的是Spark完全分布式,需要上3台机器,除了安装Spark,还需要安装Hadoop。如果不自动化这整个过程,学习过程会浪费很多时间在重复工作上。

    题外话:很多人反对项目开始时就考虑自动化所有的部署流程,理由是成本高(指人力成本),先实现功能再说。这两点理由是站不住脚的,因为如果一开始不自动化,你后期返回来再补,成本会更高。因为会有历史负担!

    监控集群

    为什么我们要学习过程中就加上监控?写出刚刚能运行的Spark应用,不难,但是谁知道你写的应用的性能如何,有没有发挥所有机器的作用呢?所以,我在一开始就会加上监控。 目前,我还没有完成这部分工作。

    自动化Submit提交Spark应用

    在搭建好了Spark集群后,我们就可以写Spark应用,然后将应用提交到Spark集群中运行。我们采用集群模式来submit spark应用,在集群中某台Spark node上手工执行命令来提交:

    如果不自动这个过程,你需要做:

    在开发环境将应用打成jar包

    手工将jar包copy上指定机器指定路径

    执行命令

    所以,我又将这个过程写成了Ansible脚本,你只需要在./ansible/下执行: ./deploy-hbase-example.sh 就完成submit的操作了。

    最后,我们的应用如果要上CI,完全没有压力!

    小结

    以上是我个人的Spark学习环境搭建方法。希望有经验的同学能多多指教。

    祝大家学习愉快。

    相关文章

      网友评论

        本文标题:学习环境效率太低?试试这样搭建Spark,学习效率提高10倍!

        本文链接:https://www.haomeiwen.com/subject/lgigmhtx.html