到今天来到这里已经有一个月了。时间过得很快。这一个月自己感觉也学到不少。就知识来说,从之前的伪分布式到现在的完全分布式,这个大数据平台 体系有了更加深层次了解,虽然离有些人还有很大一段距离。
在这里一个月,我好像一直和平台搭建干上了,问题百出,有些问题可以独立解决了。还是经验不丰富,对一些基础问题不透彻。 公司给我派发的任务是完成Mapreduce 的课程体系。对自己来说又是复习了一遍,总结一次,有很多的知识点,细节之前都没注意,等有时间我会整理到这里。对于函数式编程模型认识比之前多了 关键是业务逻辑的处理。 还有些组件的使用。hive hbase zookeeper sqoop 这些。工头说 以后Hadoop这块只做存储能用的上的也就是HDFS,还有就是接触了Kettle 这个ETL数据处理工具。现在对这个工具算是了解,但不会熟练使用。自己感觉这方面的资料相对来说不完整,比较少。
在人际这方面。 接触了相对来说专业的排名靠前的,对自己也是一种激励和督促,他们比我更早的深入学习。而且我们在一块,这个环境下都会有进步,我都感觉到这一个月学的知识,顶我在原来那个地方学2个月。虽然进步不是太大。但还是有的。还在学校,工头还是些老学长。比较自在。
又把python 基础过了一遍 和之前比较,又更进一步。 现在开始着手数据结构算法这一块
接下来一个月打算:
1.完成公司派发的任务即是学习也是复习。
2. 再学python三个数据结构【链表,树,图】
3.再深入,深层次了解Kettle的使用
4.继续学习Spark 【搭建好Spark 集群,熟悉和掌握RDD编程 Python版】
5.hbase 继续学习
6.早起,早起记一些知识点 细节新问题 。
网友评论