美文网首页
那些年错过的数据结构与算法(二)

那些年错过的数据结构与算法(二)

作者: 好饼哥 | 来源:发表于2017-08-19 01:20 被阅读9次

    本篇文章将结合《算法》第4版、业界大牛的博客和自己的理解,具体描述关于算法的时间复杂度计算,如有错误,请大佬指出。相关内容参考刘望舒大神的博客,如有侵权,请联系我删除,谢谢。

    时间复杂度

    1.基础概念

    指执行算法所需要的时间,用算法所执行的基本运算次数来度量。首先,了解几个主要的概念:
    问题规模,也就是算法的规模,记为n 。
    时间频度,指算法所执行的基本运算次数,记为T(n) 。当问题的规模n不断变化时,时间频度T(n)也会不断变化。

    时间复杂度的数学定义(大O表示法):若有某个辅助函数f(n),使得当n趋近于无穷大时,T(n)/f(n)的极限值为不等于零的常数,则称f(n)是T(n)的同数量级函数,记作T(n)=O(f(n)),它称为算法的渐进时间复杂度,简称时间复杂度。(注:大O表示法是用O( )来体现算法时间复杂度的记法)

    时间复杂度可以从最理想情况、平均情况和最坏情况三个角度来评估,但是评估最坏情况基本可以避免所有可能存在的问题,因此一般情况下,都是直接估算最坏情况的复杂度。

    大O表示法O(f(n))中的f(n)的值可以是任何值,但是为了便于推导,f(n)的值定为1、n、log₂n、n²等,进而可以将O(1)、O(n)、O(log₂n)、O(n²)分别可以称为常数阶、线性阶、对数阶和平方阶。

    从上面的内容可以知道,通过推导f(n)可以得到算法的复杂度。下面就开始入正题了。

    我们可以按照如下的规则来进行推导,得到的结果就是大O表示法:
    1.用常数1来取代运行时间中所有加法常数。
    2.修改后的运行次数函数中,只保留最高阶项
    3.如果最高阶项存在且不是1,则去除与这个项相乘的常数。

    我们可以通过几个不同的例子🌰来验证一下以上的规则。

    常数阶
    int sum = 0,n = 100;   //执行一次  
    sum = (1+n)*n/2;   //执行一次  
    System.out.println (sum);  //执行一次 
    
    总共执行了3次 
    

    上面算法的运行的次数的函数为f(n)=3,根据规则1,我们需要将常数3改为1,则这个算法的时间复杂度为O(1)。即便sum = (1+n)*n/2这条语句再执行10遍,但这与问题规模n的值并没有关系,所以这个算法的时间复杂度仍旧是O(1),这就是常数阶的特性。

    线性阶

    这部分最明显的例子是循环结构。

    int sum = 0;
    for(int i=0;i<n;i++){
         sum = i + sum;   //时间复杂度为O(1)的算法
    }
    

    上面算法循环体中的代码执行了n次,因此时间复杂度为O(n)。

    对数阶
    int number=1;
    while(number<n){
         number=number*2;//时间复杂度为O(1)的算法
    }
    

    仔细观察上面的代码可以看出,随着number每次乘2后,值都会越来越大,也越来越接近n,当number不小于n时就会退出循环。假设循环的次数为X,则由2^x=n得出x=log₂n,因此得出这个算法的时间复杂度为O(log₂n)。

    平方阶

    这部分最明显的例子是循环嵌套结构,而且分2种情况。
    第一种情况:

    int sum = 0;
    for(int i=0;i<n;i++){   
         for(int j=0;j<n;i++){
            sum = i + sum;   //时间复杂度为O(1)的算法
         }
    }
    

    经过上面的线性阶可以得知内层循环的时间复杂度是O(n),现在外层也循环n次,那么这段算法的时间复杂度则为O(n²)。

    第二种情况:

    int sum = 0;
    for(int i=0;i<n;i++){   
         for(int j=i;j<n;i++){
            sum = i + sum;   //时间复杂度为O(1)的算法
         }
    }
    

    注意!在这里内循环中int j=i,而不是int j=0。当i=0时,内循环执行了n次;i=1时内循环执行了n-1次,当i=n-1时执行了1次,我们可以推算出总的执行次数为:
    n+(n-1)+(n-2)+(n-3)+……+1
    =(n+1)+[(n-1)+2]+[(n-2)+3]+[(n-3)+4]+……
    =(n+1)+(n+1)+(n+1)+(n+1)+……
    =(n+1)n/2
    =n(n+1)/2
    =n²/2+n/2

    根据规则2:只保留最高阶,因此保留n²/2。根据规则3:去掉和这个项相乘的常数,则去掉1/2,最后得出时间复杂度也为O(n²)。所以平方阶的时间复杂度就为O(n²)。是不是很神奇,虽然分为2种情况,但最终时间复杂度是一样的,我也被吓到了。

    其他常见复杂度

    除了常数阶、线性阶、平方阶、对数阶,还有如下时间复杂度:
    f(n)=nlogn时,时间复杂度为O(nlogn),可以称为nlogn阶。
    f(n)=n³时,时间复杂度为O(n³),可以称为立方阶。
    f(n)=2ⁿ时,时间复杂度为O(2ⁿ),可以称为指数阶。
    f(n)=n!时,时间复杂度为O(n!),可以称为阶乘阶。
    f(n)=(√n)时,时间复杂度为O(√n),可以称为平方根阶。

    常用的时间复杂度按照耗费的时间从小到大依次是:

    O(1)<O(logn)<O(n)<O(nlogn)<O(n²)<O(n³)<O(2ⁿ)<O(n!)

    这一篇讲的是时间复杂度的计算,内容比较多,但是个人感觉都比较重要。下一篇开始讲数据结构,都是面试常考点啊,敬请期待<( ̄︶ ̄)>。

    相关文章

      网友评论

          本文标题:那些年错过的数据结构与算法(二)

          本文链接:https://www.haomeiwen.com/subject/ptcolxtx.html