由于接触JS不久,关于JS的浮点数的计算更是之前没有用过,这次写JS项目发现的这个问题:0.1+0.2=0.3000000000004,为什么会出现这么奇怪的问题呢 ?在网上找了一些资料,JS作为解释性语言,直接计算会有浮点数精度丢失问题。 门弱类型语言的JavaScript ,从设计思想上就没有对浮点数有个严格的数据类型。
解决方案:
一. 有种最简单的解决方案,就是给出明确的精度要求,在返回值的过程中,计算机会自动四舍五入,比如:
var numA = 0.1;
var numB = 0.2;
alert( parseFloat((numA + numB).toFixed(2)) === 0.3 );
用这种方法在测试过程中也有问题,例如6.8-0.4打印为6.3,本应为6.4所以这里转换结果还是不正确。
在浮点数计算的时候,很多时候产生的都是这种极限数据,如果要精确进行整数转换,要放大的倍数过大。这里我们可以用四舍五入对转换的过程进行优化:
Math.round((6.8-0.9)*10);//四舍五入
59
优化之后的自定义函数:
Math.formatFloat = function(f, digit) {
var m = Math.pow(10, digit);
return parseInt(f * m, 10) / m;
}
var A = 0.1;
var B = 0.2;
console.log(Math.formatFloat(A + B, 1) === 0.3);
因此,为了避免产生精度差异,我们要把需要计算的数字乘以 10 的 n 次幂,换算成计算机能够精确识别的整数,然后再除以 10 的 n 次幂,大部分编程语言都是这样处理精度差异的,我们就借用过来处理一下 JS 中的浮点数精度误差。
网友评论