计算机里的0.1+0.2等于0.3么 2021-11-08 23:54 | 4,580 | 0 | 垃圾文章 803 字 | 4 分钟 在多数编程语言中,当你计算 0.1 + 0.2 的结果时,会发现并不是想象中的 0.3,而是 0.30000000000000004。这是为什么呢? 有人会回答是精度问题,那精度是怎样导致的呢?为什么编程语言不去处理这些问题呢? 正整数的二进制很好理解,1 是 1,2 是 10, 3 是 11,如此类推。而小数的二进制是 0.1 代表十进制的 0.… 二进制小数浮点数计算机