一、基本概念
时间复杂度:评估执行程序所需的时间。可以估算出程序对处理器的使用程度。
空间复杂度:评估执行程序所需的存储空间。可以估算出程序对计算机内存的使用程度。
时间频度
一个算法执行所耗费的时间,从理论上是不能算出来的,必须上机运行测试才能知道。但我们不可能也没有必要对每个算法都上机测试,只需知道哪个算法花费的时间多,哪个算法花费的时间少就可以了。并且一个算法花费的时间与算法中语句的执行次数成正比例,哪个算法中语句执行次数多,它花费时间就多。一个算法中的语句执行次数称为语句频度或时间频度。记为T(n)。
时间复杂度
前面提到的时间频度T(n)中,n称为问题的规模,当n不断变化时,时间频度T(n)也会不断变化。但有时我们想知道它变化时呈现什么规律,为此我们引入时间复杂度的概念。一般情况下,算法中基本操作重复执行的次数是问题规模n的某个函数,用T(n)表示,若有某个辅助函数f(n),使得当n趋近于无穷大时,T(n)/f(n)的极限值为不等于零的常数,则称f(n)是T(n)的同数量级函数,记作T(n)=O(f(n)),它称为算法的渐进时间复杂度,简称时间复杂度
一、算法的时间复杂度指的是,算法的运行时间随着数据规模的增长而增长的幅度;
- 算法的运行时间:比如执行一行代码运行时间为1,执行两行就为 2,执行 n 行就为 n,与执行代码的行数正相关;
- 数据规模:数据的多少。数组中含有 10 个元素,数据规模就是 10;
- 注意是随着数据规模的增长而增长的幅度;
- 一般采用大
O
计法,说的是算法的上界,也不一定是最坏的情况;
O(1)
- 常数复杂度,不随数据规模增长,代表事件复杂度最低的算法;不管你有多少个数据,算法的代码都恒定。
- 取一万个元素的和
- 字典('dict')和集合(
set
)的存取都是O(1)
- 下标进行数组的存取也是
O(1)
数组在内存中是连续的,获取某个元素地址的流程为:取得某个元素的地址,加上中间元素总长度,即可得到。是算出来的,而非一个个找出来的O(N)
;
O(logN)
-
N
指数据规模 - 对数复杂度
-
有序数组的二分法查找 (1000 - 500 - 250 - 125 ...)
先找到数组最中间的元素,和目标元素比较大小,然后缩小范围至哪边,重复即可;
O(N)
- 线性复杂度
- 在无序数组中查找元素,数据规模为5,则需查找5次, N则需N次;
O(MlogN)
- 求两个数组的交集,其中
A(M)
为无序数组,B(N)
为有序数组
先遍历A
(O(M)
),再在B
中二分法查找A
的元素(O(logN)
); - 也就是两重循环,相乘即可;
O(N²)
- 平方复杂度
- 两个无序数组(数据规模都为
N
)的二重循环求交集;
不看系数,取最高阶;
时间复杂度(y)和数据规模(x).png比较好的文章:http://blog.csdn.net/itachi85/article/details/54882603
二、四大常见数据结构
计算机分为外存(硬盘)和内存,数据运行的时候放在内存,不运行的时候放在外存;
1. 数组 array
读取很快,插入删除很慢
- 在内存的地址是连续的一块空间
- 读取元素的时间复杂度是
O(1)
;
读取是根据前面元素的地址,加上索引差乘以元素长度,都是O(1)
; - 插入、删除也是
O(n)
;
插入之前,将插入位置后面的所有元素向后移动(O(n)
),移动为O(n)
,插入为O(1)
,则为O(n)
,删除是向前移动(O(n)
);
2. 链表 linked list
读取很慢,插入删除很快
在内存中的地址可连续可不连续
链表.png- 不能直接访问指定元素,只能通过前面的元素逐步访问后面的元素,
O(n)
; - 插入、删除本身是
O(1)
,但有时候需要寻找目标元素,是O(n)
;
- 栈和队列是链表的改良型;
3. 字典
- 利用
hash
算法,将字符串(‘key’)转换为数字作为下标储存到数组中,算法的时间复杂度为O(1)
; - 字典的存取都是
O(1)
,除非对顺序有要求; -
hash
算法:- 确定数据规模以确定容器数组的大小
Size
- 将字符转换为十进制,得到储存下标:
-
gua
为:g(107) * 1 + u(117) * 10 + a()97 * 100
,得到结果n
;ord(g) -
n % Size
取余作为字符串在数组中的下标 - 通常
Size
是素数,避免下标重复;
-
- 确定数据规模以确定容器数组的大小
4. 树
- 只有两种选择的节点叫做二叉树;
- 二叉树储存数据的方式是将数据小的放在左边,大的放在右边;
- 不平衡的时候,需要旋转节点;
网友评论