美文网首页Data Scientist网络爬虫电竞·游戏
拨云见日,浅谈游戏领域的数据分析

拨云见日,浅谈游戏领域的数据分析

作者: 点融黑帮 | 来源:发表于2016-09-18 16:36 被阅读179次

    一年一度的TI刚刚结束,来自世界各地的dota2职业战队齐聚西雅图,争夺这一dota2领域的荣誉桂冠,同时还有高达900多万美金的冠军奖金,最终此项荣耀由来自中国的Wings战队豪取。

    本文将以dota2为例浅谈一下电子竞技领域的数据分析。

    准备

    巧妇难为无米之炊,进行数据分析当然需要先有数据。这里,我们拿dota2各种比赛的BP数据进行分析(BP,就是Ban/Pick,赛前每个战队Ban掉5个英雄,Pick 5个英雄,然后开始比赛。对于实力接近的两个队伍,BP对比赛最终的胜负有极其重要的作用)。

    BP数据可以从某网站获得:

    (获取每一局的链接) (获取每一局的对战详情)

    使用python来进行网页爬取,信息采集,入库,分别需要引入package:urllib2, BeautifulSoup, MySQLdb。同时由于效率问题,最好使用多线程爬虫,用到threading 和Queue:

    引入Pickle是希望在程序过程中不断持久化已经得到的数据(list对象),可以保存进度。

    main程序里面轮询page num,读取每个page页面的match url,放入Queue,同时起NUM_WORKER数目的子线程,不断地读取Queue里面的url(生产者消费者问题),进行页面爬取,并使用BeautifulSoup parse HTML文档,得到需要的各种信息(所属赛事,时间日期,每场胜者(这里面一个url可能有多场比赛),队伍名,成员,Ban,Pick,Bestof等),以特定的分隔符按照相同的顺序拼接成字符串,放入一个全局的list对象,最终load到MySQL。

    多线程,爬取match url等的代码如下:

    do_work主要处理对于每一场比赛,进行爬取,以及parse HTML文档得到详细信息,如下:

    编码完成,就nohup到后台执行。我开了8个线程,依然用了将近10个小时得到22000场比赛数据,插入MySQL数据库(urllib2.urlopen方法中加入了timeout值,可以记录timeout的request url,用于重新抽取)

    MySQL Table DDL:

    全部条目数:

    TI6总决赛Wings vs DC:

    单独看下第二行数据:

    分析

    首先,可以看下整个TI6期间所有战队的胜率排行:

    EH胜率最高。

    此外,还能根据战队,或者联赛名称做filter,进行分析,这些都是纯SQL操作,不再赘述。

    接下来可以使用R进行高级一点的分析:设定的场景是取所有胜场的pick list,然后分析hero frequency,还有做因子关联分析。

    先了解三个术语:支持度(Support),置信度(Confidence),提升度(Lift)

    支持度:Support(A→B),即A和B这两个项集在事务集D中同时出现的概率,为P(AUB)

    置信度:Confidence(A→B),即在出现项集A的事务集D中,项集B也同时出现的概率,为P(B|A) = P(AUB) / P(A)

    提升度:Lift(A→B),即项集A出现情况下,项集B出现的概率,与B总体发生概率之比,为P(B|A) / P(B)

    满足最小支持度的项集称为频繁项集,满足最小支持度和最小置信度的规则,叫做强关联规则,强关联规则里面如果提升度大于1则称之为有效的,反之无效。

    接下来,需要导出winner pick list,因为dota2版本的不同,会导致不同的英雄热度,在此只取基于最近的一个版本的近1500场比赛:

    导出成文本备用,winner_pick.data。

    R里面做因子关联分析,需要使用到arules这个library,如下:

    第一行引入arules,第二行读取winner_pick.data文本,定义分隔符为“|”,第三行对数据集查看summary。

    可以看到winner数据集中一共有1454行,每行有5个element,arules会把数据集转换为稀疏矩阵,从上图看出这个矩阵有1454行109列,每一个单元格里面表示的是此element是否出现(即此英雄是否pick)。

    看下item frequence:itemFrequencyPlot(winner, topN=10, horiz=T)

    把数据集换成TI6(数据集较小,180场比赛左右),重新生成plot:

    可以看出Mirana(Pom)在TI6胜场pick里面占了很大比例。

    接着进行因子关联分析,依旧使用1500多场那个数据集,数据集比较大情况下分析比较有意义:

    第一行使用apriori进行关联分析(分析满足支持度大于0.01,置信度大于0.25,且lhs + rhs数目最少为2的关联规则),第二行依据支持度排序关联规则。

    Tiny与Io,Luna与Shadow Demon,Huskar与Dazzle成为比较火的组合,组内提升很明显;同时Phoenix(凤凰)和FV(虚空)组合支持度比较高,即组合选择比较多。

    后续除了因子关联分析,还可以选取适当的feature,进行逻辑回归,预测胜负等等。

    小结

    本文简单介绍了从数据提取,清洗转换,到数据分析的一般流程。当然数据工程师处理的可能是更大的数据集(TB级别或以上),Hadoop存储以及Spark分布式计算,数据分析师使用的是可能是逻辑回归,SVM或者深度学习等更为高深的算法,不过从中还是可以看到数据工程师,数据分析师的日常剪影。


    本文作者:韩新润(点融黑帮),目前就职于点融数据团队,负责数据仓库架构流程设计以及数据ETL实施。

    相关文章

      网友评论

      • nonoBoy:Hi 看到您给我《数据结构和算法》,但是我觉得投到我的《网络爬虫》专题比较合适^_^
        点融黑帮:@nonoBoy 我好像投稿次数上限已经到了
        nonoBoy:@点融黑帮 可以的 欢迎欢迎:clap:
        点融黑帮:@nonoBoy 那可以投过去嘛
      • vansnowpea:拜读,请问可否共享源码?如果可以同时有python 3版本哦 谢谢。
        vansnowpea:@点融黑帮  邮箱在私信 请查收。thx
        点融黑帮:@vansnowpea Python代码可以share 不过只有Python2的 需要的话留个邮箱吧⋯⋯(私信)

      本文标题:拨云见日,浅谈游戏领域的数据分析

      本文链接:https://www.haomeiwen.com/subject/mehgettx.html