fenglucha 发表于 2013-4-27 16:05

C语言计算浮点数时出现的误差

我在用C语言编写一个迭代过程,首先我定义的数据类型是浮点型的数据,每次迭代的时候都会有两个浮点数相减,我发现当两个浮点数相减的时候会出现误差,比如-9115536.832 + 9115535.478,得到的结果是-1.35400000028312,而不是-1.354,但是-1.354才是我要的结果,如果带着-1.35400000028312进行下一次迭代的话,那么多次之后误差就会很大,怎么样才能让得到的结果是-1.354而不是-1.35400000028312呢?请各位高手指点一下?

Rainyboy 发表于 2013-6-2 13:34

本来就应该避免两个很大的数相减啊
页: [1]
查看完整版本: C语言计算浮点数时出现的误差