为了账号安全,请及时绑定邮箱和手机立即绑定

为什么是隔500毫秒执行的啊?不是隔一秒执行的吗?这样时间是不是快了?

setTimeout(showTime,500)??

正在回答

5 回答

1秒=1000毫秒,但是这个是刷新时间,你是获取了电脑中的时间。那500毫秒就是说你一秒之内获取了2次系统时间,所以只是获取时间的频率快了,真实时间是不会变的。

3 回复 有任何疑惑可以回复我~
#1

Cliek 提问者

非常感谢!
2016-07-06 回复 有任何疑惑可以回复我~

明白了

0 回复 有任何疑惑可以回复我~

大概是程序运行并显示出来会有一定误差,你不可能  刚刚好  的1秒执行一次。所以 间隔越小,误差越小 。1s我试过,运行起来卡卡的。

1 回复 有任何疑惑可以回复我~

1秒以内刷新2次,你觉得时间会变快么。。。那你每秒刷1万次,您没多久就老了

1 回复 有任何疑惑可以回复我~

500毫秒是指0.5秒会刷新一次,刷新的时间最好小于1秒,这样才能及时感受到时间中秒数的变化。

1 回复 有任何疑惑可以回复我~

举报

0/150
提交
取消
倒计时效果
  • 参与学习       55626    人
  • 解答问题       242    个

电商网站限时抢购倒计时效果计算思路和方法,前端开发必备技术

进入课程

为什么是隔500毫秒执行的啊?不是隔一秒执行的吗?这样时间是不是快了?

我要回答 关注问题
意见反馈 帮助中心 APP下载
官方微信