C语言延时程序中,延时时间是如何计算出来的.(假如我想延时1s该如何计算?CPU晶振频率11。0592MHZ)我只知道:一个机器周期=12×(1/11.0592MH)约等于1us如何用c语言编写?
这样测也不方便了,有没有公式可以计算出延时时间的呢?