复习:在前面我们已经学习了Pandas基础,第二章我们开始进入数据分析的业务部分,在第二章第一节的内容中,我们学习了数据的清洗,这一部分十分重要,只有数据变得相对干净,我们之后对数据的分析才可以更有力。而这一节,我们要做的是数据重构,数据重构依旧属于数据理解(准备)的范围。
开始之前,导入numpy、pandas包和数据
import numpy as np import pandas as pd
df = pd.read_csv('data/train-left-up.csv')
df.head()
2 第二章:数据重构
2.4 数据的合并
2.4.1 任务一:将data文件夹里面的所有数据都载入,观察数据的之间的关系
text_left_down = pd.read_csv('data/train-left-down.csv') text_left_down.head()
text_left_up = pd.read_csv('data/train-left-up.csv') text_left_up.head()
text_right_down = pd.read_csv('data/train-right-down.csv') text_right_down.head()
text_right_up = pd.read_csv('data/train-right-up.csv') text_right_up.head()
【提示】结合之前我们加载的train.csv数据,大致预测一下上面的数据是什么
2.4.2:任务二:使用concat方法:将数据train-left-up.csv和train-right-up.csv横向合并为一张表,并保存这张表为result_up
list_up = [text_left_up,text_right_up] result_up = pd.concat(list_up,axis =1) #axis =1 横向表拼接(行对齐) result_up.head()
2.4.3 任务三:使用concat方法:将train-left-down和train-right-down横向合并为一张表,并保存这张表为result_down。然后将上边的result_up和result_down纵向合并为result。
list_down = [text_left_down,text_right_down] result_down = pd.concat(list_down,axis = 1) result_down.head()
list = [result_up,result_down] result = pd.concat(list) result.head()
2.4.4 任务四:使用DataFrame自带的方法join方法和append:完成任务二和任务三的任务
result_up = text_left_up.join(text_right_up) result_down = text_left_down.join(text_right_down) result = result_up.append(result_down) result.head()
2.4.5 任务五:使用Panads的merge方法和DataFrame的append方法:完成任务二和任务三的任务
result_up = pd.merge(text_left_up,text_right_up,left_index=True,right_index =True) result_down = pd.merge(text_left_down,text_right_down,left_index=True,right_index=True) result = result_up.append(result_down) result.head()
【思考】对比merge、join以及concat的方法的不同以及相同。思考一下在任务四和任务五的情况下,为什么都要求使用DataFrame的append方法,如何只要求使用merge或者join可不可以完成任务四和任务五呢?
2.4.6 任务六:完成的数据保存为result.csv
result.to_csv('resule.csv')
2.5 换一种角度看数据
2.5.1 任务一:将我们的数据变为Series类型的数
text = pd.read_csv('result.csv') unit_result = text.stack().head(20) unit_result
第一部分:数据聚合与运算
2.6 数据运用
2.6.1 任务一:通过教材《Python for Data Analysis》P303、Google or anything来学习了解GroupBy机制
groupby的思想就是 “split-apply-combine”(拆分 - 应用 - 合并)
例如 df.groupby(“occupation”).age.mean()
首先df按照每一种occupation拆分成多个部分, 然后分别计算每种occupation的age的平均值.
然后合并成一个Dataframe或者Series.
值得注意的是, groupby之后是一个对象, 知道应用一个函数之后才会变成一个Series或者Dataframe.
原文链接:https://blog.csdn.net/Candylx/article/details/108190328
2.4.2:任务二:计算泰坦尼克号男性与女性的平均票价
df = text['Fare'].groupby(text['Sex']) means = df.mean()
means
在了解GroupBy机制之后,运用这个机制完成一系列的操作,来达到我们的目的。
下面通过几个任务来熟悉GroupBy机制。
2.4.3:任务三:统计泰坦尼克号中男女的存活人数
df = text['Survived'].groupby(text['Sex']) #df.head() sums = df.sum() sums
2.4.4:任务四:计算客舱不同等级的存活人数
【提示:】表中的存活那一栏,可以发现如果还活着记为1,死亡记为0
【思考】从数据分析的角度,上面的统计结果可以得出那些结论
答:
【思考】从任务二到任务三中,这些运算可以通过agg()函数来同时计算。并且可以使用rename函数修改列名。你可以按照提示写出这个过程吗?
答:
2.4.5:任务五:统计在不同等级的票中的不同年龄的船票花费的平均值
#df = text['Fare'].groupby(['Pclass','Age']) #fare_means = df.mean() #fare_means text.groupby(['Pclass','Age'])['Fare'].mean()
2.4.6:任务六:将任务二和任务三的数据合并,并保存到sex_fare_survived.csv
result =pd.merge(means,sums,on= 'Sex') result
2.4.7:任务七:得出不同年龄的总的存活人数,然后找出存活人数的最高的年龄,最后计算存活人数最高的存活率(存活人数/总人数)
survived_age = text['Survived'].groupby(text['Age']).sum() survived_age.head()
survived_age[survived_age.values==survived_age.max()]
_sum = text['Survived'].sum() print(_sum)
#这边有个疑问,总人数应该是891啊,为啥是342个总人数呢
_sum = text['Survived'].sum() print("sum of person:"+str(_sum)) precetn =survived_age.max()/_sum print("最大存活率:"+str(precetn))
网友评论