caching - 当 L1 访问延迟较高时,用于有用工作的处理器周期会减少
问题描述
我在具有两种不同配置的处理器模拟器上运行基准程序。
配置 1 的 L1 访问延迟(hitDelay 和 missDelay 为 1 个周期) 配置 2 的 L1 访问延迟为 7 个周期。
在同一基准测试的两次运行中完成的动态指令总数为 13743658,但归因于完成和提交有用指令的周期在配置 2 中为 68,782.17,在配置 1 中为 158,498.33。
因此,奇怪的是,当 L1 访问延迟为 7 个周期时,处理器花费的周期更少(68,782.17),而 L1 访问延迟为 1 个周期时则为 158,498.33。
有人可以解释为什么会这样。这似乎违反直觉。
解决方案
推荐阅读
- javascript - Highcharts - 以 html div 为中心的饼图
- javascript - 使用递归返回嵌套对象 - Javascript
- c# - 如何将 C# 的 IList(集合)存储为 DynamoDb 中的 Json 文档
- scroll - 如何阻止 Sapper 在嵌套路由中滚动回顶部?
- sql - 如何在 Presto 中将秒数格式化为 HH:MM:SS
- mysql - MYSQL SELECT 返回带有时区计算的时间戳
- npm - “npm build”、“npm run build”、“npm install”和“npm run install”有什么区别
- php - 如何仅获取带有 where 子句的搜索数据?
- java - 防止 hazelcast 在每个节点上注册 EvictionListener
- amazon-web-services - AWS EC2 BOTO3:在 Lanuch EC2 实例时创建实例标签