算法的执行效率,就是算法代码的执行时间。我们需要能够用肉眼就看出一段代码的执行时间。
int cal(int n){
int sum = 0;
int i = 1;
for(; i<=n; ++i){
sum=sum+1;
}
return sum;
}
2,3行都执行了1个unit_time的执行时间,4,5行都运行了n遍,所以是2n*unit_time的执行时间,所以一共是(2n+2)*unit_time。所有的代码的执行时间T(n)与每行代码的执行次数成正比。
T(n)=O(f(n))
T(n)表示代码的执行时间;n表示数据规模的大小;f(n)表示每行代码执行的次数总和,T(n) = O(2n+2),这就是大O时间复杂度表示法。大O时间复杂度实际上并不具体表示代码真正的执行时间,而是表示代码执行时间岁数据规模增长的变化趋势,所以,也叫作渐进时间复杂度。
而我们只需要记录一个最大量级就可以了。
时间复杂度分析
1.只关注循环执行次数最多的一段代码
我们通常可以忽略掉工事中的敞亮,低阶,系数,只需要记录一个最大阶的量级即可。
int cal(int n){
int sum = 0;
int i = 1;
for(; i<=n; ++i){
sum=sum+1;
}
return sum;
}
还是这个例子,2,3行都是常量级别的,4,5行是循环执行次数最多的,这两行代码被执行了n次,所以总的时间复杂度是O(n)
加法规则:总复杂度等于量级最大的那段代码的复杂度
举个例子:
int cal(int n) {
int sum_1 = 0;
int p = 1;
for (; p < 100; ++p) {
sum_1 = sum_1 + p;
}
int sum_2 = 0;
int q = 1;
for (; q < n; ++q) {
sum_2 = sum_2 + q;
}
int sum_3 = 0;
int i = 1;
int j = 1;
for (; i <= n; ++i) {
j = 1;
for (; j <= n; ++j) {
sum_3 = sum_3 + i * j;
}
}
return sum_1 + sum_2 + sum_3;
}
这个代码分三个部分,分别是求sum_1,sum_2,sum_3。分析每一部分的时间复杂度,然后再把他们放在一块,再取一个量级最大的作为整段代码的复杂度。
第一段是一个常量;第二段是O(n);第三段是O(n^2)
所以取最高的O(n^2).
3.乘法法则:嵌套代码的复杂度等于嵌套内外代码复杂度的乘积
int cal(int n) {
int ret = 0;
int i = 1;
for (; i < n; ++i) {
ret = ret + f(i);
}
}
int f(int n) {
int sum = 0;
int i = 1;
for (; i < n; ++i) {
sum = sum + i;
}
return sum;
}
单独看cal()函数,假设f()只是一个普通函数,那么4-6行就是O(n),但是f()本身并不是一个简单的操作,他的时间复杂度是O(n),所以,整个cal()函数的时间复杂度就是,T1(n)T2(n)=O(nn)=O(n^2)
比较常见的算法时间复杂度:O(1),O(logn),O(nlogn),O(2^n),
O(n^k)等等。。。
参考:极客时间