美文网首页
利用python整理需要的excel报表(上)

利用python整理需要的excel报表(上)

作者: Bug生活2048 | 来源:发表于2018-02-22 21:06 被阅读162次

    一、背景

    目前公司的项目管理采用开源项目redmine,对于redmine本文不多做介绍,有兴趣的可以自行百度了解下。

    在每周周会汇报任务进度时,需要我们准备各组的项目进度,按照一定的excel模板整理,然而我们的数据,任务情况,任务进度都在redmine中体现,因此每周相当于我们有这样一个工作:

    将readmine中数据导出->确认开发的进度->整理样式->统计出固定模板的Excel。

    可是我想偷偷懒,不想每次都整理这个Excel,因此想用Python搞定它。

    二、需求分析

    目前已知的是redmine中的任务id(每次建任务时会记录在excel中)。

    接下来的就是根据id去获取对应信息,包括开发人,完成时间,上线版本等等,

    然后根据固定的模板保存生成Excel。

    整体的需求还是比较简单明确的。

    三、所要的第三方Python组件

    1.Requests

    有http请求,肯定需要用到Requests库啦,方便好用。

    2.BeautifulSoup

    需要简单的从网页上爬去一些数据,BeautifulSoup还是比较方便的

    3.xlrd,xlsxwriter

    excel的读写操作,通常用xlrd读,用xlsxwriter写(效率高),但对于我们这种的数据量其实用xlwt也是可以的啦。

    四、正式开发

    做好了相应的准备工作,现在要正式开发啦。

    由于才学Python没多久,当中遇到的坑还是挺多的,下面一步一步来看吧。

    1. redmine网页的攻破

    遇到的第一个困难就是如何获取页面上的数据了,也算是想学爬虫的入门吧,正好可以利用这次‘偷懒’去学习一下。

    首先利用Chrome分析一下redmine的登录页:

    在点击登录时,FormData中除了常规的username,passw之外有个authenticity_token,想必也是为了防止CSRF。

    这个authenticity_token值在哪呢?只能继续分析登录页面,还好,找authenticity_token不是特别困难,名字取的一样,全局搜一下就找到了。

    这样的话,貌似问题就解决的差不多了,开始编写代码。

    利用requests.session()方法保持cookie

    模拟伪造下hearder头

    利用Requests获取请求

    利用BeautifulSoup获取页面上所要的authenticity_token

    模拟构造登录的PostData,实现登陆操作

    尝试请求个页面你,看下是否登录成功

    可以看到,对应的页面已经返回:

    五、总结

    今天就总结到这里,有空再写下半段,上半段主要发现了现实工作中反复工作的事情可以利用Python进行自动化,在分析完需求和所要的技术之后进行实践。

    目前已经完成redmine的模拟登陆,并且能获取到我想要的页面。之后需要对获取的页面进行筛选,取到我们所要的数据,然后整理之后保存到Excel中,这样就大功告成了。

    相关文章

      网友评论

          本文标题:利用python整理需要的excel报表(上)

          本文链接:https://www.haomeiwen.com/subject/keayhxtx.html