python - 与最小化数值误差有关的问题
问题描述
我目前正在学习python,并且正在阅读一本python介绍书。在其中一个问题中,您应该在对一系列浮点数求和时预测最准确的结果:
A) 0.01 + 0.02 + 0.03 +...+ 0.99 + 1.00
B) 1.00 + 0.99 + 0.98 +...+ 0,02 + 0.01
书中说 A) 中的方法将产生最准确的结果,因为要相加的两个数字的大小大致相同。
我不明白为什么与添加两个大小完全相同的数字相比,添加两个大小非常不同的数字会产生更不准确的结果。有人可以帮我理解吗?提前致谢。
我直接从书中添加了问题的屏幕截图: 屏幕截图
解决方案
推荐阅读
- reactjs - React - 如何在异步函数之外获取获取的数据?
- node.js - Postgres 连接池错误排查
- python - Python列表中第一次出现零的索引
- ruby - 如何解析列表中的两个元素以创建一个新元素
- java - 使用 Selenium 按类名查找数组中的元素
- angular-ngrx-data - 获取ngrx/data的add操作的结果或HTTP响应
- cucumber - tags 和 getTags() 在 cucumber-report-generator freemarker 模板中抛出错误
- javascript - 如何在 jQuery 3.4.1 中处理事件处理程序
- javascript - 特定字段中的共享点列表项的总和
- java - replaceAll 和正则表达式组‽