美文网首页编程初入门
加快Python运行速度的几个小技巧

加快Python运行速度的几个小技巧

作者: 用Python不加班 | 来源:发表于2019-11-20 22:24 被阅读0次

    (文章转载自网络)

    Python运行的慢是历来被诟病的,一方面和语言有关,另一方面可能就是你代码的问题。语言方面的问题我们解决不了,所以只能在编程技巧上来提高程序的运行效率。下面就给大家分享几个提高运行效率的编程方法。

    学习Python中的小伙伴,需要学习资料的话,可以到我的微信公众号:Python学习知识圈,后台回复:“01”,即可拿Python学习资料

    首先,我们需要来衡量代码的时间和空间的复杂性,不然仅仅用我们的肉眼很难感受代码时间长短的变化。python中的profiler可以帮助我们测量程序的时间和空间复杂度。 使用时通过-o参数传入可选输出文件以保留性能日志。具体使用方法如下:

    python -m cProfile [-o output_file] my_python_file.py

    01 使用哈希表的数据结构

    如果在程序中遇到大量搜索操作时,并且数据中没有重复项,则可以使用查找而不是循环。举例如下:

    items = ['a', 'b',..,'100m'] #1000s of items

    found = Falsefor i in items:if (i == '100m'):found = True可以改写为

    items = {'a':'a', 'b':'b:,..,'100m':'100m'} #each item is key/value

    found = Falseif '100m' in items:found = True02 矢量化取代循环

    尽量使用基于C构建的Python库,例如Numpy,Scipy和Pandas,并且利用矢量化同时处理来取代程序中编写多次处理数组单个元素的循环,循环可能是程序优化最容易被拿来开刀的地方了。举例如下:在对数组中每个元素求平方时直接用数组相乘,而不是两个for循环。

    import numpy as np

    array = np.array([[1., 2., 3.], [4., 5., 6.]])m_array = array*array03 精简代码行数

    在编程时,尽量使用一些python的内置函数来精简代码行数,是代码显得简洁凝练,大大提高代码运行效率。举例如下:

    newlist = []

    def my_fun(a):return a + 't'for w in some_list:newlist.append(my_fun(w))可以改写为

    def my_fun(a):

    return a + 't'newlist = map(my_fun, some_list)04 使用多进程

    一般计算机都是多进程的,那么在执行操作时可以使用Python中的multiproccessing。多进程可在代码中实现并行化。 当您要实例化新进程,访问共享内存时,多进程成本很高,因此如果有大量数据处理时可以考虑使用多进程。 对于少量数据,则不提倡使用多进程。举例如下:

    def some_func(d):

    computations

    data = [1,2,..,10000] #large data

    for d in data:some_func(d)可以改写为

    import multiprocessing

    def some_func(d):computations

    data = [1,2,..,10000] #large data

    pool = multiprocessing.Pool(processes=number_of_processors)r= pool.map(some_func, data)pool.close()05 使用Cpython

    Cython是一个静态编译器,可以为您优化代码。加载cypthonmagic扩展并使用cython标记使用cython编译代码。

    Cpython的安装:

    pip install Cython

    Cpython的使用:

    %load_ext cythonmagic

    %%cythondef do_work():... #computationally intensive work06 尽量使用csv替代xlsx

    在进行数据处理时, 我需要更长的时间才能将数据加载到excel文件或从excel文件保存数据。 相反,我选择了创建多个csv文件的路径,并创建了一个文件夹来对文件进行分组。举例如下:

    df = pd.DataFrame([['a', 'b'], ['c', 'd']],index=['row 1', 'row 2'],columns=['col 1', 'col 2'])

    df.to_excel("my.xlsx")df2 = df.copy()with pd.ExcelWriter('my.xlsx') as writer:df.to_excel(writer, sheet_name='Sheet_name_1')df2.to_excel(writer, sheet_name='Sheet_name_2')可以改写为

    df = pd.DataFrame([['a', 'b'], ['c', 'd']],index=['row 1', 'row 2'],columns=['col 1', 'col 2'])

    df2 = df.copy()df.to_csv("my.csv")df2.to_csv("my.csv")07 使用Numba

    它是一个JIT(即时)编译器。 通过装饰器,Numba将带注释的Python和NumPy代码编译为LLVM 。将您的功能分为两部分:

    1.执行计算的函数 - 使用@autojit进行装饰

    2.执行IO的功能

    from numba import jit, autojit

    @autojitdef calculation(a):

    def main():

    calc_result = calculation(some_object)

    d= np.array(calc_result)

    save to file

    return d

    08 使用Dask来并行化Pandas DataFrame

    Dask很棒! 它帮助我处理数据框中的数值函数和并行的numpy。 我甚至试图在集群上扩展它,它就是这么简单!

    import pandas as pd

    import dask.dataframe as ddfrom dask.multiprocessing import getdata = pd.DataFrame(...) #large data setdef my_time_consuming_function(d):ddata = dd.from_pandas(data, npartitions=30)def apply_my_func(df):return df.apply((lambda row: my_time_consuming_function(*row)), axis=1)def dask_apply():return ddata.map_partitions(apply_my_func).compute(get=get)09 使用Pandarallel库

    Pandarallel可以将pandas操作与多个进程并行化同样,仅在您拥有大型数据集时使用。

    from pandarallel import pandarallel

    from math import sinpandarallel.initialize()ALLOWED

    def my_time_consuming_function(x):

    df.parallel_apply(my_time_consuming_function, axis=1)

    总结

    对于提高Python的性能,第一是先编写简洁,高效的代码。 我们必须确保代码不会在循环中反复执行相同的计算。第二不要为集合中的每个记录打开/关闭IO连接。第三要确保在不需要时不创建新的对象实例。通过大量的编程练习,掌握一些高级的编程方法对你十分重要。

    如果有想一起学习交流Python,获取更多Python学习干货的朋友可以关注我主页哦~

    不定期更新关于Python学习的各种方法窍门与避坑指南!

    另附:学习资料→→→链接: https://pan.baidu.com/s/1ppQdUfOWhzv-F7cfgV_-tA 提取码: jepq

    相关文章

      网友评论

        本文标题:加快Python运行速度的几个小技巧

        本文链接:https://www.haomeiwen.com/subject/lmiaictx.html