标签: 二进制

1 篇文章

计算机里的0.1+0.2等于0.3么
在多数编程语言中,当你计算 0.1 + 0.2 的结果时,会发现并不是想象中的 0.3,而是 0.30000000000000004。这是为什么呢? 有人会回答是精度问题,那精度是怎样导致的呢?为什么编程语言不去处理这些问题呢? 正整数的二进制很好理解,1 是 1,2 是 10, 3 是 11,如此类推。而小数的二进制是 0.1 代表十进制的 0.…