美文网首页
pandas数据处理技巧

pandas数据处理技巧

作者: Houtasu | 来源:发表于2019-05-21 09:49 被阅读0次
    import pandas as pd
    import numpy as np
    
    df = pd.DataFrame({'uid': [111,111,222,222,333,333],
                       'amount': [4.99,9.99,14.99,29.99,14.99,99.99],
                       'days':['1','2','1','2','1','2']})
    df
    
        uid amount  days
    0   111 4.99    1
    1   111 9.99    2
    2   222 14.99   1
    3   222 29.99   2
    4   333 14.99   1
    5   333 99.99   2
    

    1.分组后找出某列的最大行并保留其他列

    比如在df中,找出每个uid的最大amount,并保留其他列

    # 如果只需要找出最大值,直接分组取max就可以了
    df.groupby('uid')['amount'].max()
    
    uid
    111     9.99
    222    29.99
    333    99.99
    
    # 但是这样days列就没有了,所有需要使用idxmax取出最大行的索引值,然后在df中提取这些索引
    df.loc[df.groupby('uid')['amount'].idxmax()]
    
        uid amount  days
    1   111 9.99    2
    3   222 29.99   2
    5   333 99.99   2
    

    2.按照某个值的差值进行排序

    在df中,按照金额和10的差值进行排序,
    9.99和10差值最小,排在第一,
    99.99和10差值最大,排在最后

    # argsort是返回排序后的索引。
    (df.amount - 9.99).abs().argsort()
    
    0    1
    1    0
    2    2
    3    4
    4    3
    5    5
    
    df.loc[(df.amount - 9.99).abs().argsort()]
    
        uid amount  days
    1   111 9.99    2
    0   111 4.99    1
    2   222 14.99   1
    4   333 14.99   1
    3   222 29.99   2
    5   333 99.99   2
    

    3.数据透视表

    查看每个用户每天的总充值金额

    df.pivot_table(index='uid', columns='days', values='amount',aggfunc='sum',margins=True)
    
    
    days    1     2     All
    uid         
    111 4.99    9.99    14.98
    222 14.99   29.99   44.98
    333 14.99   99.99   114.98
    All 34.97   139.97  174.94
    

    4.求没有外键的两个表的笛卡尔积

    求上面两个表的笛卡尔积,即合并上面两张表为一个四行四列的表

    df1 = pd.DataFrame([[11,22],[22,33]], columns=['c1', 'c2'])
    df2 = pd.DataFrame([['aa','bb'],['cc','dd']], columns=['c3', 'c4'])
    df1
        c1  c2
    0   11  22
    1   22  33
    
    df2
        c3  c4
    0   aa  bb
    1   cc  dd
    
    # pd.merge可以连接两个表,如果how='outer'的话就是求的笛卡尔积,但是前提是两张表有相同的一个列名
    # 如果两张表没有的话,可以自己构造一个,合并完后再删掉即可
    df1['t'] = df2['t'] = 1
    pd.merge(df1,df2,on='t', how='outer').drop('t', axis=1)
        c1  c2  c3  c4
    0   11  22  aa  bb
    1   11  22  cc  dd
    2   22  33  aa  bb
    3   22  33  cc  dd
    
    
    

    5.解决narray的嵌套

    用dataframe或series转narray有时会遇到array里套array的情况,如下所示:

    df = pd.DataFrame({'a':[1,3,2], 'b':[2,3,4], 'c':[4,5,6]})
    df = df.groupby('a').apply(lambda x:x.iloc[0].to_numpy()).to_numpy()
    
    df
    array([array([1, 2, 4], dtype=int64), array([2, 4, 6], dtype=int64),
           array([3, 3, 5], dtype=int64)], dtype=object)
    

    这个df就是array里还有array,但我们想要的一个二维的array,即array[[]]这样的结构,
    这里可以用vstack解决

    np.vstack(df)
    array([[1, 2, 4],
           [2, 4, 6],
           [3, 3, 5]], dtype=int64)
    

    6.二重索引Series转为dateframe

    下面是一个二重索引的series, 现在想要把它转为一个dateframe,
    uid作为行索引,而amount作为列索引。

    t1 = df.groupby(by=['uid'])['amount'].value_counts()
    t1
    uid  amount
    111  4.99      1
         9.99      1
    222  14.99     1
         29.99     1
    333  14.99     1
         99.99     1
    Name: amount, dtype: int64
    

    使用unstack函数可以实现这个需求。



    现在我uid和amount都作为列,整个Series转为3列的dataframe,可以使用reset_index实现。

    t1.name = 'count'
    t1.reset_index()
        uid amount  count
    0   111 4.99    1
    1   111 9.99    1
    2   222 14.99   1
    3   222 29.99   1
    4   333 14.99   1
    5   333 99.99   1
    

    这里需要注意的是要先重命名t1.name属性,因为原来的name是amount,会和二重索引里的amount冲突。

    7. read_csv函数int和空值

    遇到一个神奇的问题,使用read_csv读取文件的时候,pands会自动推断某列的类型,如果某列本身是int,但是还有空值的话,会被推断为float。


    可以看到b列的类型是float64,如果强行指定为int
    image.png
    它也不是int,而是object,
    这样有个问题是使用to_csv写回csv文件的时候,原来的1会变成1.0,
    也就是从int变为了float。
    我现在不希望多个.0怎么办呢,直接用astype转为int也是会出错的,因为有None值。
    方法是在最后写到csv前转为str类型,csv本身就是个文本,直接写str就好了。
    df.b.apply(lambda x: str(int(x)) if not pd.isna(x) else '')
    

    相关文章

      网友评论

          本文标题:pandas数据处理技巧

          本文链接:https://www.haomeiwen.com/subject/uccdzqtx.html