前言
性能的要求一定是在慢慢的成长中一点点接触到的,比如50hz的图像,就需要我们在20ms内将数据处理完成,那我们怎么简单估算下我们代码的运行时间呢?
clock_gettime函数
介绍说明
函数"clock_gettime"是基于Linux C语言的时间函数,他可以用于计算精度和纳秒
函数原型
extern int clock_gettime (clockid_t __clock_id, struct timespec *__tp) __THROW;
参数
__clock_id : 时钟类型,posix标准定义了下面的四种基本类型,Linux系统有其他的扩充
CLOCK_REALTIME:系统实时时间,随系统实时时间改变而改变,即从UTC1970-1-1 0:0:0开始计时,中间时刻如果系统时间被用户改成其他,则对应的时间相应改变。
CLOCK_MONOTONIC:从系统启动这一刻起开始计时,不受系统时间被用户改变的影响
CLOCK_PROCESS_CPUTIME_ID:本进程到当前代码系统CPU花费的时间。需要注意是不是进程开始到当前代码的时间。
CLOCK_THREAD_CPUTIME_ID:本线程到当前代码系统CPU花费的时间。需要注意是不是线程开始到当前代码的时间。
/* POSIX.1b structure for a time value. This is like a `struct timeval' but
has nanoseconds instead of microseconds. */
struct timespec
{
__time_t tv_sec; /* Seconds. */
__syscall_s long_t tv_nsec; /* Nanoseconds. */
};
头文件
#include <time.h>
好了,无非就是根据精度获取在目标代码运行前后读取做差值就是了,如果精度不够,可以比如循环运行100次代码,取时间平均值这样,给出ms级和us级的计算方法,先用sleep测试误差
ms级别
#include <stdio.h>
#include <stdlib.h>
#include <time.h>
#include <unistd.h>
#include <string.h>
timeval clockGetTime(clockid_t _tclock_id)
{
struct timespec stTime;
//该函数的时间精确到纳秒级别
clock_gettime(_tclock_id, &stTime);
timeval stRet;
stRet.tv_sec = stTime.tv_sec;
stRet.tv_usec = stTime.tv_nsec/1000;
return stRet;
}
int main(void)
{
timeval tmp = {
0};
int timeOffset = 0;
int timeOffset1 = 0;
tmp = clockGetTime(CLOCK_MONOTONIC);
//单位ms
timeOffset = tmp.tv_sec*1000 + tmp.tv_usec/1000;
sleep(5);
/*模拟代码运行时间*/
memset(&tmp,0,sizeof(tmp));
tmp = clockGetTime(CLOCK_MONOTONIC);
timeOffset1 = tmp.tv_sec*1000 + tmp.tv_usec/1000;
printf("timeOffset:%d\n",(timeOffset1 - timeOffset));
return 0;
}
us级别
#include <stdio.h>
#include <stdlib.h>
#include <time.h>
#include <unistd.h>
#include <string.h>
timeval clockGetTime(clockid_t _tclock_id)
{
struct timespec stTime;
//该函数的时间精确到纳秒级别
clock_gettime(_tclock_id, &stTime);
timeval stRet;
stRet.tv_sec = stTime.tv_sec;
stRet.tv_usec = stTime.tv_nsec/1000;
return stRet;
}
int main(void)
{
timeval tmp = {
0};
int timeOffset = 0;
int timeOffset1 = 0;
tmp = clockGetTime(CLOCK_MONOTONIC);
//单位us
timeOffset = tmp.tv_sec*1000*1000 + tmp.tv_usec;
sleep(5);
/*模拟代码运行时间*/
memset(&tmp,0,sizeof(tmp));
tmp = clockGetTime(CLOCK_MONOTONIC);
timeOffset1 = tmp.tv_sec*1000*1000 + tmp.tv_usec;
printf("timeOffset:%d\n",(timeOffset1 - timeOffset));
return 0;
}