linux - 关于 vruntime 和 CFS 的问题
问题描述
CFS 为下一次运行选择具有最低 vruntime 的调度实体。并且,vruntime 是根据实际运行时间和权重计算的。此外,vruntime 由 min_vruntime 规范化。
但是,假设有两个线程,A,B。
A已经运行了很长时间,所以它的sum_exec_runtime是10000000
B 刚刚启动,其 sum_exec_runtime 为 100000
并且他们都有相同的优先级。
在这种情况下,B 是否保留 CPU 直到 B 的运行时间高于 A?
这听起来像是很久以前启动的线程可能没有任何机会获得 CPU。
在 Linux 中必须有一些方法来防止这种情况发生。
我认为这与vruntime的规范化有关。
但我不认为简单地将 min_vruntime 添加到 vruntime 可以解决问题。你有什么主意吗?
解决方案
推荐阅读
- google-apps-script - 向谷歌日历添加自定义字段
- redis - 主服务器的 RDB 和副本的 AOF
- python - 带有 output_encoding 的 Ansible 任务模板:base64 抛出未知编码
- android - Kotlin:带有firebase的RecycleView“不得为空”错误
- google-cloud-platform - 以编程方式删除谷歌实例
- asp.net-core - 如何在登录时传递额外的变量以添加为额外的声明?
- linux - 获取证书文件的颁发者和主题的简单方法
- postgresql - Docker Postgres 12“恐慌:找不到有效的检查点记录”
- ibm-cloud - 有没有办法让@sys-time 更可靠?
- random - OpenOffice RAND() 函数 - 阻止它重新计算,直到被告知