美文网首页学习编程世界程序员
数据挖掘工程师的第十个月(7个场景应用)

数据挖掘工程师的第十个月(7个场景应用)

作者: 插着扇子的石头 | 来源:发表于2017-05-13 17:04 被阅读900次
Hadoop

上班以后,越发觉得日子过得快了。不知不觉,已经到了第十个月。成为一家互联网公司的数据挖掘工程师后,我从一些貌似枯燥琐碎的小任务中学到很多东西。下面简单地谈谈我在工作中get到的技能,以及我是怎么解决实际问题的。

一、shell命令

研究生的时候一直在Windows系统下进行软件开发,而工作后都是在Linux系统下操作。与Windows相比,Linux更加安全、稳定。刚进公司,我们人手一份shell命令和hadoop命令文档,以供查阅。单纯地背命令不但枯燥乏味,也容易忘记。因此,我们一般是在项目中需要用的时候再去查,现学现卖,这样印象更加深刻。

场景1:一个大项目包含很多文件夹,每个文件夹下又包含很多小文件。当我们需要重新编辑最近一段时间更新过的文件时,可以怎么做呢?

可选做法:使用Tab键的自动补全功能快速cd到指定目录,然后用“ll -t  |  head -n 20 ”列出最近变动的文件详细信息,从中找到需要的文件,加以修改。其中“ll”的作用是列出文件详细信息,“-t”表示按时间排序。小竖扛“|”表示管道,用途为将前一个命令的输出作为后一个命令的输入。这里,要注意不要将管道“|”和重定向“>”弄混。重定向“>”一般用于将命令的输出重定向到某个文件中,比如“ll -t  |  head > log”。head命令是显示输入流的前几行内容,参数“-n”可以指定行数。

补充:在工作中,我在一段时间内会反复修改某几个文件,但自己记性又不太好,总记不住文件名,所以常常使用这个命令。如果知道大致文件名,也可以使用“find . -type d -name filename”命令,其中filename用你需要查找的文件名替换。

场景2:我需要从其他机器上拷贝文件过来,怎么办?

可选做法:使用wget命令,例如“wget ftp://hostsite//home/work/username/userfile”。其中hostsite用源的主机地址替换,后面是需要拷贝的文件目录。

补充:理论上需要拷贝文件夹的时候,我们可以用命令“wget -r”来操作。实际上,我更喜欢将文件夹打包压缩后再使用wget命令。因为直接从其他机器上拉取文件夹,可能会丢失文件而不自知。另外,拷贝文件时最好带上相应的md5文件,以便check文件是否传输完整。生成md5文件的命令为“md5sum filename > filename.md5”。

场景3:公用机器上磁盘空间慢了,写不进去东西了,怎么办?

可选做法:首先找出谁的目录所占空间比较大,“du -h --max-depth=1 /home/work/”,可以提醒占用磁盘空间最多的几个人删一些文件。

补充:如果自己占用空间比较多,可以用同样的方法确定哪个目录比较占空间“du -h --max-depth=1 /home/work/username”。在一个目录下,可以使用“ls -l  | sort -n -k5  |  tail -n k”命令查看哪些文件比较大,其中最后一个k用你需要查看的具体文件数目替换。

二、hadoop命令

有些hadoop命令和shell命令很相似,有些是hadoop所独有的。

场景4:我想看一下集群上某个目录下的文件有哪些?

可选做法:使用命令“/home/work/hadoop_client/hadoop/bin/hadoop  fs -ls /dir1/dir2/dir3”,其中第一项是hadoop客户端的位置,可以有多个客户端,比如命令中的hadoop_client可以是hadoop_client1,hadoop_client2……最后一项是你想查看目录的位置,你所使用的hadoop客户端必须有对那个目录读的权限才能访问,否则会报权限相关的错误。

补充:如果有权限,A集群的hadoop客户端可以访问B集群的数据,但是必须加上B集群的主机名和端口名,比如“/home/work/hadoop_client/hadoop/bin/hadoop  fs -ls hdfs://host:port//dir1/dir2/dir3”。如果你嫌第一项太长了,可以通过“vim ~/.bashrc”为每一个hadoop客户端设置别名,比如“alias hadoopMine="/home/work/hadoop_client1/hadoop/bin/hadoop"”。以后,你想使用hadoop命令,就可以这样写,“hadoopMine fs -ls /dir1/dir2/dir3”。是不是简洁多了?

场景5:我想将文件夹从一个集群拷贝到另一个集群,怎么做呢?

可选做法:使用命令“hadoopMine distcp  hdfs://host:port//dir1/dir2/dir3 /dir4/dir5/dir6”,其中第三项是源集群的目录地址,第四项是目标集群的目录地址。

补充:distcp命令实际上是启的一个集群任务,即我们常说的job。一般来说,distcp默认的优先级和并发数目都不高。如果我们比较赶时间,想让任务快点执行,可以动态地修改map-capacity和priority两个参数,例如“hadoopMine job -set-map-capacity  JobID 5000”,“hadoopMine job -set-priority JobID  VERY_HIGH”。

三、map和reduce脚本

单纯地看书,听别人谈论,你会觉得大数据很高大上,写大数据分析脚本很难。其实,你只要拿一两个小项目练练手,了解启动集群任务时配置的几个常用参数,弄清map-reduce原理,一个月就可以自如地写大数据分析脚本。“纸上得来终觉浅,绝知此事要躬行。”

场景6:我想本地测一下map和reduce程序怎么办?

可选做法:先模拟map过程,“cat inputFile | python myMapper.py 1>map.out 2>map.err”@1,再模拟reduce过程“cat map.out | sort | python myReducer.py 1>reduce.out 2>reduce.err”@2。

补充:有些大任务可以划分为若干个小任务,每个小任务是python脚本,各个小任务间用shell脚本串起来。

举个实例:有一个能够处理1小时数据的现成python脚本,例如myMapper.py和myReducer.py,现在想在本地处理24小时的数据,怎么办?

你可以选择做重复性工作,将@1和@2的输入文件和输出文件修改24次,再分别将命令输入24次。也可以用shell语言写一个批量处理的小脚本,一键执行。

有人也许会问能不能并行执行呢?答案是肯定的,利用nohup和&后台执行命令就可以实现这一目的。但一般情况下,不主张在同一个目录下并行执行。我们需要考虑程序运行中生成的中间文件是否会相互干扰,多个程序占用的内存之和是否过大等因素。如果你嫌弃本地程序跑得太慢,可以放到集群上运行,让成千上万台机器并发执行。

场景7:我想在集群上跑一下数据,怎么启任务?

可选做法:可以在shell脚本中将hadoop任务的配置写好,然后用“nohup sh myHadoopJob.sh 1>out 2>err &”@3 启动集群任务。特别需要注意一点的是,集群任务一旦启起来后,即使你在本地kill掉@3进程,集群上的任务并不受影响,会继续运行。shell脚本中的部分内容如下所示。

${hadoop_home}/bin/hadoop streaming

        -D mapred.job.name="${job_name}"

        -D mapred.map.tasks=${map_task_num}

        -D mapred.reduce.tasks=${reduce_task_num}

        -D mapred.job.map.capacity=${map_capacity} 

        -D mapred.job.reduce.capacity=${reduce_capacity}

        -D mapred.job.priority=VERY_HIGH

        -partitioner "org.apache.hadoop.mapred.lib.KeyFieldBasedPartitioner"

        -input ${input_dir}

        -output ${output_dir}

        -mapper "${mapper}"

        -reducer "${reducer}

        -file ${mapper_file}

        -file ${reducer_file}

其中,变量hadoop_home表示本地hadoop客户端的位置,比如上文提到的“/home/work/hadoop_client1/hadoop/”。job_name是你给任务取的名字,理论是可以任意取。实际上,任务名称中应该包含你自己的名字,以便别人查看任务队列时知道那是你启的任务,有什么事也好找你协商。

顾名思义,map_task_num和reduce_task_num分别是map和reduce阶段的任务数目,map_capacity和reduce_capacity分别是map和reduce阶段并发数目的上限。那是不是把这四个参数设置得越大越好呢?未见得。如果优先级不够高的话,自己的任务很难抢到几台空闲机器,好不容易抢到台机器,只跑完小部分数据又释放了,需要再等下一次机会。即使优先级足够高,比如上文提到的VERY_HIGH,也不要把这四个参数设置得过大。因为你把集群资源都用光了,别人就没得用了,然后就会有人找你算账或者要你请客吃冰淇淋。

参数partitioner "org.apache.hadoop.mapred.lib.KeyFieldBasedPartitioner"@4 非常有用。我们都知道hadoop任务的输出有很多切片,part-00000,part-00001……当我们想知道某个key在哪个part时,就可以使用命令“KeyFieldBasedPartitioner key 总文件个数”查找,当然前提条件是你在启动任务时添加了@4参数。值得提醒的一点是,如果你的任务只有map没有reduce,那么即使你加了@4参数也没有用,除非你在reduce阶段添加cat操作,使其重新分桶。

在实战中学习吧!


ps: 下面这部分内容来源于我在知乎上的一个回答。

数据挖掘工程师的主要工作职责:

1、研究数据挖掘和统计学习领域的前沿技术,并用于实际问题的解决和优化

2、大规模机器学习算法研究及并行化实现,为各种大规模机器学习应用研发核心技术

3、通过对数据的敏锐洞察,深入挖掘产品潜在价值和需求,进而提供更有价值的产品和服务,通过技术创新推动产品成长

入职前几个月实际用到的知识或技能:

1、用python写数据分析程序,难度为leetcode上的easy级别题目。

2、linux命令,shell脚本,hadoop程序(现学现卖,入职前完全不会,入职后很快就学会了)。

3、统计学的一些基础知识,比如计算均值和方差。

4、了解机器学习中的常见模型和适用场景,比如GBDT(不熟悉也没关系,一般模型很少变动,平常就是改改特征)。建议做一个与机器学习相关的项目,熟悉一下用机器学习算法解决实际问题的流程(可以考虑参加阿里大数据竞赛,我之前面试就是拿阿里比赛作为敲门砖的)。

5、踏实、勤奋、爱思考、能干活。这一条说着有点虚,但其实是最重要的。公司给你安排的活不会是单纯的设计个算法或者写段代码,工作往往和团队当前的业务紧密相连。我们在学校一般不会接触到那些业务,这就意味着大家的起跑线都差不多,我们入职后都需要学习很多新东西。

数据挖掘工程师面试

1、与机器学习相关的项目。一面和二面都会问,发问的角度和深度不一样。

2、给你个纯算法题,让你纸上写代码。难度一般不超过leetcode上的中档题。

3、与机器学习相关的基础知识(推荐一下吴恩达的机器学习视频),有些面试官也会给你一些业务场景,让你选择一个机器学习模型。

相关文章

  • 开启数据挖掘及数据分析学习之旅

    数据挖掘之旅 数据挖掘简介及其应用场景 搭建Python数据挖掘环境 亲和性分析示例:根据购买习惯推荐商品 经典分...

  • 数据挖掘工程师的第十个月(7个场景应用)

    上班以后,越发觉得日子过得快了。不知不觉,已经到了第十个月。成为一家互联网公司的数据挖掘工程师后,我从一些貌似枯燥...

  • 数据分析工具KNIME基础模块及特点分析

    最近探索数据挖掘工具在业务场景下的应用,针对KNIME这一数据挖掘工具进行了试用。如图所示为KNIME工具的几大主...

  • 全新“6R模型”,开启智慧化运营

    个推(每日互动)具备庞大的数据规模,通过对海量数据进行治理、挖掘、提炼、萃取和场景应用,构建了坚实的数据中台。在谈...

  • 数据质量管理

    前提。  大数据时代,数据产生的价值越来越大,探索与数据相关的开发技术、应用场景和商业模式,最终目的就是挖掘数据价...

  • 数据挖掘技术与应用

    《数据挖掘技术与应用》本书系统详细地阐述了数据挖掘产生的背景、技术、多种相关方法及具体应用,主要内容包括数据挖掘概...

  • 大数据挖掘要面临什么问题?零基础大数据培训

    大数据挖掘是大数据开发所运用的主要应用场景,他主要面临三方面挑战,这是学习大数据并出来进行应用所需要必须克服的。 ...

  • 数据挖掘

    挖掘数据的典型应用场景有搜索排序、关联分析以及聚类,下面我们一个一个来看,希望通过今天的学习,你能够了解数据挖掘典...

  • 数据挖掘工程师的第一个月(附带干货分享)

    去年8月份,我拿到了数据挖掘工程师的offer。很多人告诉我,数据挖掘工程师就是每天分析分析数据,再拍一下脑袋,想...

  • 蚂蚁金服

    职位关键词:推荐、搜索、广告、NLP、机器学习、机器翻译、数据挖掘等 高级算法工程师/架构师-应用算法-北京 北京...

网友评论

  • 流川枫AI:不错的文章,也考虑将来做大数据方面的职位
    插着扇子的石头: @流川枫debug 现在大数据好火,这个方向也很缺人, 特别是既懂大数据又会机器学习的更吃香
  • faf81b5e2090:请问数据工程师主要是做什么?是敲一些命令来操作数据,还是开发程序来处理数据?
    插着扇子的石头:主要工作和核心工作是开发程序来处理数据。但每天都需要敲一些命令来操作数据。很多时候也需要人工看数据,分析数据。
    数据挖掘工程师的主要工作职责:
    1、研究数据挖掘和统计学习领域的前沿技术,并用于实际问题的解决和优化
    2、大规模机器学习算法研究及并行化实现,为各种大规模机器学习应用研发核心技术
    3、通过对数据的敏锐洞察,深入挖掘产品潜在价值和需求,进而提供更有价值的产品和服务,通过技术创新推动产品成长
  • Mx勇:厉害厉害
    插着扇子的石头:夸得我有点不好意思 :blush: 。其实我也是刚学大数据相关知识。
    去年入组时,shell和hadoop都不会,刚开始我还担心自己适应不了,后来结合项目来学,学得也蛮快的,感觉没想象中那么难。
    当然不是说shell和hadoop简单,而是我们只需要一些简单的shell和hadoop基础知识就够用了。
    平常,看一点那方面相关的文章,感觉还蛮有意思的。:smile:
  • 2453cf172ab4:在北京遇到过一次这本书的作者,还有一本他亲笔签名的书
    插着扇子的石头:真好,我好像从来没见过大牛亲笔签名的书:joy:
    以前听到有个初三同班同学说,他们团队是创新工厂中最年轻的团队,微软总裁鲍尔默和李开复还单独和他聊天,鲍尔默送他饼干,李开复送他亲笔签名的书。把我们羡慕得要死!
  • C就要毕业了:想问一个问题,为什么你们公司使用hadoop而不是spark呢。就我目前自学的感受,spark的api比hadoop要好用很多
    C就要毕业了:@插着扇子的石头 另外想问下楼主在哪里工作?
    C就要毕业了:@插着扇子的石头 作者调研后如果写成新文章就好了:smile::smile:
    插着扇子的石头:我猜是因为spark是后起之秀,把hadoop中的map-reduce计算替换成spark是需要成本的。另外,hadoop被用于商业用途的时间比较长,可靠性、稳定性已经经过了时间的考验。spark还在不断地走向成熟,也许不久我们也会用spark。
    现在很多公司既用hadoop又用spark,像阿里和百度都是这样。
    而且,我们公司用的hadoop也是改良后的hadoop,具体和spark有多大的差距还需要调研。
    不过你的疑问提醒了我,我目前正在做性能优化这块。我准备下周在组会上提一下,看一下将map-reduce用spark替换的可行性。:smile:
  • KisugiRui:大佬…
    插着扇子的石头:@喜欢shooting的小学生 是特别相关的,我们经常用机器学习算法来分析挖掘数据
    KisugiRui:@插着扇子的石头 我在看机器学习的东西,好像和你弄的数据挖掘息息相关呢……
    插着扇子的石头:我也是刚学啦:joy:
  • 吕氏春秋驴驴:我是电脑盲。崇拜你😘
    道士爱学习: @插着扇子的石头 要了解电脑硬件最好从机械计算机看起,300多年前的大牛们利用纯机械构件,纯加法算法实现了复杂的方程计算,真是算法的大牛和先驱。。。
    插着扇子的石头:其实我也算半个电脑盲,除了编程什么都不会,对电脑的硬件和软件都不太了解。但是我喜欢算法。很多人以为算法很难,有些人认为只有会编程才可能算法好。其实从广义上来讲,算法就是解决问题的步骤,比如文中解决7个场景问题的步骤就是一种算法,平常你做菜的步骤也可以看成一种算法。算法在生活中无处不在,在设计出一种妙算法时,还是非常happy的。:smile:
  • e8e976845a84:小白的我,还不能够理解
    e8e976845a84: @插着扇子的石头 不不,是我水平太低啦
    插着扇子的石头::sob: 刚写完这篇文章时,我还觉得自己写的东西太基础太简单了,正在考虑要不要加点稍微有难度的。现在看来,完全是我想多了。:joy:
    e8e976845a84: @弋小暔囝 我得多学习学习
  • 98860d333f23:这本权威指南要什么基础,本人前端开发
    插着扇子的石头:@一个空想家 不知道零基础能不能看懂,如果方便地话,你可以写一下大数据分析脚本试一试。自己动手比较好玩,看技术书相对枯燥很多。
    98860d333f23: @插着扇子的石头 零基础就能看懂吗
    插着扇子的石头:话说,这本权威指南是我朋友买的,他说是hadoop最权威的书籍,我只看了目录。我读书的时候没学过hadoop,进公司后我接触的项目与大数据有关,就现学现卖,一个月就能自如写hadoop程序了。我觉得实践比较重要,不会的命令和方法在网上查一下就好了,重要的是逻辑思维能力。

本文标题:数据挖掘工程师的第十个月(7个场景应用)

本文链接:https://www.haomeiwen.com/subject/tdpptxtx.html