时间复杂度
在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随n的变化情况并确定T(n)的数量级。算法的时间复杂度,也就是算法的时间量度,基座T(n)=O(f(n))。它表示随问题规模n的增大,算法执行时间的增长率和f(n)的增长率相同,称作算法的渐进算法时间复杂度,简称为时间复杂度。其中f(n)是问题规模n的某个函数。
一般情况下,随着n的增大,T(n)增长最慢的算法为最优算法。
O(1):常数阶
O(n):线性阶
O(n2):平方阶
1.常数阶:
int sum = 0 ; n = 100; /*执行一次*/
sum = (1+n)*n/2; /*执行一次*/
printf("%d",sum); /*执行一次*/
这个算法的运行次数f(n) = 3,根据推导大O阶的方法,第一步是将3改为1,在保留最高阶项是,它没有最高阶项,因此这个算法 的时间复杂度为O(1);
下面你这种情况依然是常数阶
int sum = 0 ; n = 100; /*执行一次*/
sum = (1+n)*n/2; /*执行第1次*/
sum = (1+n)*n/2; /*执行第2次*/
sum = (1+n)*n/2; /*执行第3次*/
sum = (1+n)*n/2; /*执行第4次*/
sum = (1+n)*n/2; /*执行第5次*/
sum = (1+n)*n/2; /*执行第6次*/
sum = (1+n)*n/2; /*执行第7次*/
sum = (1+n)*n/2; /*执行第8次*/
sum = (1+n)*n/2; /*执行第9次*/
sum = (1+n)*n/2; /*执行第10次*/
printf("%d",sum); /*执行一次*/
此外,对于分支结构而言,无论真假执行的次数都是恒定不变的,不会随着n的变大而发生变化,所以单纯的分支结构(不在循环结构中),其时间复杂度也是O(1)。
2.线性阶:
线性阶的循环结构会复杂一些,要确定某个算法的阶次,需要确定特定语句或某个语句集运行的次数。因此要分析算法的复杂度,关键是要分析循环结构的运行情况。
int i;
for(i = 0 ; i < n ; i++){
/*时间复杂度为O(1)的程序*/
}
3.对数阶
int count = 1;
while(count < n){
count = count * 2;
/*时间复杂度为O(1)的程序*/
}
因为每次count*2后,距离结束循环更近了。也就是说有多少个2 相乘后大于n,退出循环。
数学公式:2x = n --> x = log2n 即T(n)=log(2)(n), O(log(2)(n)) 即O(logn)
因此这个循环的时间复杂度为O(logn)
4.平方阶:
对于对于内层循环,它的时间复杂度为O(n),但是它是包含在外层循环中,再循环n次,因此这段代码的时间复杂度为O(n2)。
int i;
for(i = 0 ; i < n ; i++){
for(j = 0 ; j < n ; j++){
/*时间复杂度为O(1)的程序*/
}
}
但是,如果内层循环改成了m次,时间复杂度就为O(n*m)
int i;
for(i = 0 ; i < n ; i++){
for(j = 0 ; j < m ; j++){
/*时间复杂度为O(1)的程序*/
}
}
再来看一段程序:
int i;
for(i = 0 ; i < n ; i++){
for(j = i ; j < n ; j++){
/*时间复杂度为O(1)的程序*/
}
}
下面,分析调用函数时的时间复杂度计算方法:
int i,j;
void function(int count){
print(count);
}
for(i = 0 ; i < n ; i++){
function (i)
}
函数的时间复杂度是O(1),因此整体的时间复杂度为O(n)。
假如function是这样的:
void function(int count){
int j;
for(j = count ; j < n ;j++){
/*时间复杂度为O(1)的程序*/
}
}
和第一个的不同之处在于把嵌套内循环放到了函数中,因此最终的时间复杂度为O(n2)
参考链接: