#include
int main()
{double i;
for(i=0;i!=10;i+=0.1)
printf("%.1lf\n",i);
return 0;
}
这个问题因为浮点数误差无限循环,浮点数误差有量化标准吗?比如说这题误差在0.01以内 不运行程序怎么得到这个结论呢?如果继续使用浮点数计数,可以使用哪些方法呢?(除去用fabs(i-10)>0.01作为判断这一种)
关于你说的,不运行程序能否知道程序运行的结果。简单来说,不可能。
至于为什么,请看此科普讲座:http://v.youku.com/v_show/id_XNDkyODExODY0.html
浮点数的误差主要有两个,一个是浮点数本身的尾数精度限制。一个是二进制和十进制的转换误差。
浮点数的误差在计算中可以被放大,极端情况下,这个误差可以非常非常巨大。
比如
int main()
{
double d1 = (1E-10+1E20-1E20)*1E12;
double d2 = (1E20-1E20+1E-10)*1E12;
printf("%f\n%f\n", d1, d2);
}
0.000000
100.000000
从数学上说两者结果都是100,但是可以差这么多。
如果*1E12修改为*1E20,那么结果可以相差几亿呢
所以在运行程序前是不知道误差会有多大吗?如果这样用浮点数计算怎样尽量确保误差不会太大?普通加减法误差会相对小很多吗?