language-agnostic - 通过字符串 VS 处理计算器输入。算术
问题描述
我正在创建一个 GUI 应用程序,它具有计算器键盘形式的输入(非常类似于您的标准 iOS 或 Android 计算器应用程序)。我们都熟悉的常见输入流程是将每个新数字附加到当前显示的数字的末尾。
从错误安全和性能的角度来看,将一个新数字连接到现有字符串的末尾并在要执行新操作时对其进行解析更好 - 或者将数字表示为浮点数或双精度数开始?
现在我看到的关于这个主题的所有教程都建议使用字符串方法。直观地说,计算器是关于数字的,而不是字符串,所以我现在犹豫要不要使用这种方法;但是,我真的找不到任何强有力的理由来反对它,因为它比跟踪数字的显着性和指数要简单得多。
话虽这么说,我很确定实际的计算器没有使用字符串。如果有人能向我描述他们如何处理他们的输入,我将非常感激。
另外,我担心使用浮点数进行输入会影响精度——但我也不确定。很高兴听到尽可能多的意见。我正在用 Swift 编写应用程序,但同样的问题可能适用于 JavaScript 或 Kotlin 中的类似应用程序,例如。
解决方案
推荐阅读
- javascript - ES6 类和类实例作为构造函数中的参数
- c++ - 如果输入类型与目标类型不同,“cin”是否会将变量重置为某个默认值?
- scala - 为 groupby 列添加序列 ID
- javascript - 图表 js - 以旋转形式显示图表上的数据
- android - 我可以打开与未知联系人的聊天吗?
- java - 将 24:00 设置为 java 时间
- javascript - 我怎样才能定义我的变量?
- python - python 如何打开类,读取文件并打开另一个类
- wordpress - Woocommerce REST API按交易ID检索订单?
- gdb - gdb 只显示 xmm 寄存器