美文网首页我爱编程
pandas备忘手册和itertools模块

pandas备忘手册和itertools模块

作者: wong小尧 | 来源:发表于2018-01-15 18:32 被阅读0次

    pandas模塊

    基本属性

    df.dtypes: data type of columns列数据类型
    df.index : indexes行索引
    df.columns: return pandas.Index列名称(label)
    df.values: each row, return array[array]
    df.shape: a tuple representing the dimensionality of df

    导入数据

    pd.read_csv(filename):从CSV文件导入数据
    pd.read_table(filename):从限定分隔符的文本文件导入数据
    pd.read_excel(filename):从Excel文件导入数据
    pd.read_sql(query, connection_object):从SQL表/库导入数据
    pd.read_json(json_string):从JSON格式的字符串导入数据
    pd.read_html(url):解析URL、字符串或者HTML文件,抽取其中的tables表格
    pd.read_clipboard():从你的粘贴板获取内容,并传给read_table()
    pd.DataFrame(dict):从字典对象导入数据,Key是列名,Value是数据

    以读取csv为例
    pd.read_csv(filename) 重要参数:
    encoding: 编码方式
    filepath_or_buffer : 路径 URL 可以是http, ftp, s3, 和 file.
    sep: 指定分割符,默认是’,’,C引擎不能自动检测分隔符,但Python解析引擎可以
    delimiter: 和sep一样
    delimiter_whitespace: True or False 默认False, 用空格作为分隔符等价于spe=’\s+’如果该参数被调用,则delimite不会起作用
    header: 指定第几行作为列名(忽略注解行),如果没有指定列名,默认header=0; 如果指定了列名header=None
    names 指定列名,如果文件中不包含header的行,应该显性表示header=None
    index_col: 默认为None 用列名作为DataFrame的行标签,如果给出序列,则使用MultiIndex。如果读取某文件,该文件每行末尾都有带分隔符,考虑使用index_col=False使panadas不用第一列作为行的名称。
    usecols: 默认None 可以使用列序列也可以使用列名,如 [0, 1, 2] or [‘foo’, ‘bar’, ‘baz’],选取的列
    as_recarray:默认False , 将读入的数据按照numpy array的方式存储,0.19.0版本后使用 pd.read_csv(…).to_records()。 注意,这种方式读入的na数据不是显示na,而是给以个莫名奇妙的值
    squeeze: 默认为False, True的情况下返回的类型为Series
    prefix:默认为none, 当header =None 或者没有header的时候有效,例如’x’ 列名效果 X0, X1, …
    mangle_dupe_cols :默认为True,重复的列将被指定为’X.0’…’X.N’,而不是’X’…’X’。如果传入False,当列中存在重复名称,则会导致数据被覆盖。
    dtype: E.g. {‘a’: np.float64, ‘b’: np.int32} 指定数据类型
    engine: {‘c’, ‘python’}, optional 选择读取的引擎目前来说C更快,但是Python的引擎有更多选择的操作
    skipinitialspace: 忽略分隔符后的空格,默认false,
    skiprows: list-like or integer or callable, default None 忽略某几行或者从开始算起的几行
    skipfooter: 从底端算起的几行,不支持C引擎
    nrows: int 读取的行数
    na_values: 默认None NaN包含哪些情况,默认情况下, ‘#N/A’, ‘#N/A N/A’, ‘#NA’, ‘-1.#IND’, ‘-1.#QNAN’, ‘-NaN’, ‘-nan’, ‘1.#IND’, ‘1.#QNAN’, ‘N/A’, ‘NA’, ‘NULL’, ‘NaN’, ‘n/a’, ‘nan’, ‘null’. 都表现为NAN
    keep_default_na: 如果na_values被定义,keep_default_na为False那么默认的NAN会被改写。 默认为True
    na_filter: 默认为True, 针对没有NA的文件,使用na_filter=false能够提高读取效率
    skip_blank_lines 默认为True,跳过blank lines 而且不是定义为NAN
    thousands 千分位符号,默认‘,’
    decimal 小数点符号,默认‘.’

    导出数据

    df.to_csv(filename):导出数据到CSV文件
    df.to_excel(filename):导出数据到Excel文件
    df.to_sql(table_name, connection_object):导出数据到SQL表
    df.to_json(filename):以Json格式导出数据到文本文件

    创建测试对象

    pd.DataFrame(np.random.rand(20,5)):创建20行5列的随机数组成的DataFrame对象
    pd.Series(my_list):从可迭代对象my_list创建一个Series对象
    df.index = pd.date_range('1900/1/30', periods=df.shape[0]):增加一个日期索引

    查看、检查数据

    df.head(n):查看DataFrame对象的前n行
    df.tail(n):查看DataFrame对象的最后n行
    df.shape():查看行数和列数
    df.info() :查看索引、数据类型和内存信息
    df.describe():查看数值型列的汇总统计
    s.value_counts(dropna=False):查看Series对象的唯一值和计数
    df.apply(pd.Series.value_counts):查看DataFrame对象中每一列的唯一值和计数

    数据选取

    df[col]:根据列名,并以Series的形式返回列
    df[[col1, col2]]:以DataFrame形式返回多列
    s.iloc[0]:按位置(行号)选取行数据此处为第1行,第一列则为s.iloc[:,0]
    df.loc['index_one']:按索引(行标签)选取行数据
    df.loc[0,'ID']:返回第0行,索引为'ID'的列的元素
    df.iloc[0,:]:返回第一行
    df.iloc[:,0]:返回第一列
    df.iloc[0,0]:返回第一列的第一个元素
    df.ix[0]:ix为loc和iloc的综合(很多新版本已经弃用)

    数据清理

    col = ["id","tile"]
    df1 = pd.DataFrame(df,columns = col) :切分df
    df.columns = ['a','b','c']:重命名列名
    pd.isnull():检查DataFrame对象中的空值,并返回一个Boolean数组
    pd.notnull():检查DataFrame对象中的非空值,并返回一个Boolean数组
    df.dropna():删除所有包含空值的行
    df.dropna(axis=1):删除所有包含空值的列
    df.dropna(axis=1,thresh=n):删除所有小于n个非空值的行
    df.fillna(x):用x替换DataFrame对象中所有的空值
    s.astype(float):将Series中的数据类型更改为float类型
    s.replace(1,'one'):用‘one’代替所有等于1的值
    s.replace([1,3],['one','three']):用'one'代替1,用'three'代替3
    df.rename(columns=lambda x: x + 1):批量更改列名
    df.rename(columns={'old_name': 'new_ name'}):选择性更改列名
    df.set_index('column_one'):更改索引列
    df.rename(index=lambda x: x + 1):批量重命名索引

    数据处理:Filter、Sort和GroupBy

    df[df[col] > 0.5]:选择col列的值大于0.5的行
    df.sort_values(col1):按照列col1排序数据,默认升序排列
    df.sort_values(col2, ascending=False):按照列col1降序排列数据
    df.sort_values([col1,col2], ascending=[True,False]):先按列col1升序排列,后按col2降序排列数据
    df.groupby(col):返回一个按列col进行分组的Groupby对象
    df.groupby([col1,col2]):返回一个按多列进行分组的Groupby对象
    df.groupby(col1)[col2]:返回按列col1进行分组后,列col2的均值
    df.pivot_table(index=col1, values=[col2,col3], aggfunc=max):创建一个按列col1进行分组,并计算col2和col3的最大值的数据透视表
    df.groupby(col1).agg(np.mean):返回按列col1分组的所有列的均值
    data.apply(np.mean):对DataFrame中的每一列应用函数np.mean
    data.apply(np.max,axis=1):对DataFrame中的每一行应用函数np.max

    数据过滤

    过滤,多条件使用& | 操作符
    使用 [] 过滤
    []中是一个boolean 表达式,凡是计算为 True 的行就会被选取。

    df[df.A>1]
    Out:
                           A         B         C         D
        2017-04-02  2.104572 -0.977768 -0.139632 -0.735926
        2017-04-04  1.700309  0.287588 -0.012103  0.525291
        2017-04-06  1.143858 -0.326720  1.425379  0.531037
    df[df>1]
    Out:
                           A         B         C   D
        2017-04-01       NaN       NaN       NaN NaN
        2017-04-02  2.104572       NaN       NaN NaN
        2017-04-03       NaN  1.215048  1.313314 NaN
        2017-04-04  1.700309       NaN       NaN NaN
        2017-04-05       NaN       NaN       NaN NaN
        2017-04-06  1.143858       NaN  1.425379 NaN
    
    df[df.A+df.B>1.5]
    Out:
                           A         B         C         D      
        2017-04-03  0.480507  1.215048  1.313314 -0.072320  
        2017-04-04  1.700309  0.287588 -0.012103  0.525291  
    

    下面是一个更加复杂的例子,选取的是 index 在 '2017-04-01'中'2017-04-04'的,一行的数据的和大于1的行:

    df.loc['2017-04-01':'2017-04-04',df.sum()>1]
    还可以通过和 apply 方法结合,构造更加复杂的过滤,实现将某个返回值为 boolean 的方法作为过滤条件:

    df[df.apply(lambda x: x['b'] > x['c'], axis=1)]
    使用 isin

    df['E']=['one', 'one','two','three','four','three']
                           A         B         C         D      E
        2017-04-01  0.522241  0.495106 -0.268194 -0.035003    one
        2017-04-02  2.104572 -0.977768 -0.139632 -0.735926    one
        2017-04-03  0.480507  1.215048  1.313314 -0.072320    two
        2017-04-04  1.700309  0.287588 -0.012103  0.525291  three
        2017-04-05  0.526615 -0.417645  0.405853 -0.835213   four
        2017-04-06  1.143858 -0.326720  1.425379  0.531037  three
    
    df[df.E.isin(['one'])]
        Out:
                           A         B         C         D    E
        2017-04-01  0.522241  0.495106 -0.268194 -0.035003  one
        2017-04-02  2.104572 -0.977768 -0.139632 -0.735926  one
    

    数据合并

    df1.append(df2):将df2中的行添加到df1的尾部
    df.concat([df1, df2],axis=1):将df2中的列添加到df1的尾部
    df1.join(df2,on=col1,how='inner'):对df1的列和df2的列执行SQL形式的join

    数据统计

    df.describe():查看数据值列的汇总统计
    df.mean():返回所有列的均值
    df.corr():返回列与列之间的相关系数
    df.count():返回每一列中的非空值的个数
    df.max():返回每一列的最大值
    df.min():返回每一列的最小值
    df.median():返回每一列的中位数
    df.std():返回每一列的标准差

    三種常用方法

    1.apply()
    当想让方程作用在一维的向量上时,可以使用apply来完成
    但是因为大多数的列表统计方程 (比如 sum 和 mean)是DataFrame的函数,所以apply很多时候不是必须的

    2.applymap()
    如果想让方程作用于DataFrame中的每一个元素,可以使用applymap().

    3.map()
    map()只要是作用将函数作用于一个Series的每一个元素

    4.replace函數:
    语法:replace(self, to_replace=None, value=None, inplace=False, limit=None, regex=False, method='pad', axis=None)

    import numpy as np
    import pandas as pd
    frame = pd.DataFrame(np.random.randn(4, 3), columns=list('abc'),index=['a', 'b', 'c','d'])
    print (frame)
    #          a         b         c
    #a -0.074178  0.217576  0.489068
    #b  0.922744  1.524651  2.127485
    #c -1.457947 -0.498123 -0.687133
    #d  0.106064 -2.890129  0.981858
    
    f = lambda x: x.max() - x.min()
    print(frame.apply(f))
    
    
    format = lambda x: x * x
    print(frame.applymap(format))
    
    #          a         b         c
    #a  0.005502  0.047339  0.239188
    #b  0.851457  2.324562  4.526193
    #c  2.125609  0.248126  0.472152
    #d  0.011250  8.352848  0.964045
    
    print(frame['a'].map(format))
    #a    0.005502
    #b    0.851457
    #c    2.125609
    #d    0.011250
    #Name: a, dtype: float64
    
    

    总的来说就是apply()是让函数作用于列或者行操作,applymap()是一种让函数作用于DataFrame每一个元素的操作,而map是一种让函数作用于Series每一个元素的操作

    itertools模塊

    Python的内建模块itertools提供了非常有用的用于操作迭代对象的函数。
    chain(iter1, iter2, ..., iterN):
    给出一组迭代器(iter1, iter2, ..., iterN),此函数创建一个新迭代器来将所有的迭代器链接起来,返回的迭代器从iter1开始生成项,知道iter1被用完,然后从iter2生成项,这一过程会持续到iterN中所有的项都被用完。
    即连接多个可迭代对象的元素,作为一个系列

    from itertools import chain
    test = chain('AB', 'CDE', 'F')
    for el in test:
      print (el)
    
    chain.png

    chain.from_iterable(iterables):
    chain的类工厂函数chain.from_iterable(iterable),也可以连接多个序列。

    list(chain.from_iterable(["ABC","DEF"]))
    
    chain2.png

    combinations(iterable, r):
    创建一个迭代器,返回iterable中所有长度为r的子序列,返回的子序列中的项按输入iterable中的顺序排序:

    combinations.png

    groupby()

    把迭代器中相邻的重复元素挑出来放在一起:

    for key, group in itertools.groupby('AAABBBCCAAA'):
      print(key, list(group))
    
    groupby.png

    实际上挑选规则是通过函数完成的,只要作用于函数的两个元素返回的值相等,这两个元素就被认为是在一组的,而函数返回值作为组的key。如果我们要忽略大小写分组,就可以让元素'A'和'a'都返回相同的key:

    for key, group in itertools.groupby('AaaBBbcCAAa', lambda c: c.upper()):
      print(key, list(group))
    
    groupby2.png
    參考:
    http://outofmemory.cn/code-snippet/2390/python-itertools-module-learn-note
    https://www.cnblogs.com/chaosimple/p/4153083.html

    相关文章

      网友评论

        本文标题:pandas备忘手册和itertools模块

        本文链接:https://www.haomeiwen.com/subject/yfhgnxtx.html