所有前后端编程语言计算时都有精度偏差吗?涉及到复杂的精确计算的只能放在数据库进行计算吗?
精度偏差是计算机的问题,和编程语言没有啥关系,数据库也有偏差,二进制就是表示不出来那么小的分数,所谓的精度准确,也不过是编程语言自己去主动校准的。也可以人为主动校准
用浮点数来表示,就有误差
是计算机在计算时转二进制有小数位