市场需要的水平
- 熟练掌握Linux、SQL与Hive SQL
- 掌握Hadoop生态主流技术,如HDFS/MapRedunce/Yarn/HBase/Flume等
- 掌握Spark生态核心技术,如Spark架构/RDD转换算子/行动算子/持久化算子/任务调度/SparkStreaming等
- 能够对崭新的问题进行建模分析,使用一直只是进行解决
- 掌握大数据平台调优技能,源码阅读技巧
- 具备应对BAT级别相关岗位面试能力
学Java转大数据和数据挖掘,规划学习路线
第一阶段:磨基础
Linux基础/Hbase/Hive/Scala/Spark
第二阶段:收地盘
Hadoop/Hbase/Hive/Scala/Spark
第三阶段:攻算法
Python/R,数据挖掘、机器学习基础
第四阶段:识架构
看书、看源码、跟大牛学习、学习大数据平台各项性能调优、数据治理、集群架构
夜深了,未完待续。。。
网友评论