c++ - 将 uintptr_t 转换为 bool 会多次减慢 SSO 基准
问题描述
考虑以下实现(基本上是为了 MCVE)小字符串优化的类(假设小端、64 位指针等):
class String {
char* data_;
bool sso() const { return reinterpret_cast<uintptr_t>(data_) & 1; }
public:
String(const char * arg = "") {
auto len = strlen(arg);
if (len > 6) {
data_ = new char[len + 1];
memcpy(data_, arg, len + 1);
}
else {
data_ = reinterpret_cast<char*>((uintptr_t)1);
memcpy(reinterpret_cast<char*>(&data_) + 1, arg, len + 1);
}
}
~String() { if (sso() == false) delete data_; }
// ~String() { if (reinterpret_cast<uintptr_t>(data_) & 1 == 0) delete data_; }
};
请注意,析构函数有 2 个版本。当我使用 Quick C++ Benchmark 测量这两个版本之间的差异时:
static void CreateShort(benchmark::State& state) {
for (auto _ : state) {
String s("hello");
benchmark::DoNotOptimize(s);
}
}
在 GCC 的第二种情况下,我的运行时间快了 5.7 倍。我不明白为什么编译器不能在这里生成相同的优化程序集。如果按位与运算的结果另外转换为布尔值,什么会阻碍编译器优化?(虽然我不是汇编专家,但我可以看到两种变体的汇编输出存在一些差异,但无法弄清楚为什么会存在。)
- 基准链接:http: //quick-bench.com/wZhYuffRc1LMwFJ4rx4Xxy330Sw
- 神螺栓链接: https ://godbolt.org/z/dAUI_u
使用 Clang,没有区别,两种变体都很快。
问题在于转换为bool
,而不是内联。以下形式的析构函数会导致同样的问题:
~String() { if ((bool)(reinterpret_cast<uintptr_t>(data_) & 1) == false) delete data_; }
解决方案
对于此代码:
if (reinterpret_cast<uintptr_t>(data_) & 1 == 0) delete data_;
它可以完全优化: 1 == 0
总是0
,并且x & 0
对于所有的人总是错误的x
。第一种情况较慢,因为它实际上是在做某事。
我想你的意思是:
if ( (reinterpret_cast<uintptr_t>(data_) & 1) == 0) delete data_;
我用于优先级的助记符&
|
是回忆在 C 的前身中,没有单独的运算符&
and &&
; 操作员完成了&
这两个角色(如果您想要逻辑比较,您可以手动转换为布尔范围)。x == y & z == w
检查这两个等式是否成立的正常代码也是 如此。
当&&
被引入时,为了避免破坏现有代码,&&
被赋予低于&
;的优先级。但&
保持不变,如下==
。
C++ 语言也没有改变这些优先级,大概这是为了尽量减少两种语言之间的不兼容性。
推荐阅读
- laravel - 在 Laravel 7 中替代 hasColumn
- firebase - Firebase Auth:为什么我的安卓用户收不到验证邮件?
- amazon-web-services - logstash 输出插件 amazon_es 使用操作更新总是失败
- powershell - 另一个文档中的用户定义字符串
- c# - 使用 tcpip 发送消息而不阻塞侦听器的最佳方法
- selenium - 尽管参数和返回类型看起来都是正确的,但出现 DataProvider Mismatch 错误
- amazon-s3 - Kafka 连接器:S3OutputStream 无法转换为 S3ParquetOutputStream
- sql - Power BI 获取平均时间
- postgresql - 如何创建 30 分钟离散的预订自定义类型?
- go - 常量初始化器 'protoimpl.EnforceVersion(20 - protoimpl.MinVersion)' 不是常量