python - Jupyter Lab 在内存不足时冻结计算机 - 如何防止它?
问题描述
我最近开始使用 Jupyter Lab,我的问题是我使用非常大的数据集(通常数据集本身大约是我计算机 RAM 的 1/4)。经过几次转换,保存为新的 Python 对象后,我往往会耗尽内存。问题是,当我接近可用 RAM 限制并执行任何需要另一个 RAM 空间的操作时,我的计算机会冻结,修复它的唯一方法是重新启动它。这是 Jupyter Lab/Notebook 中的默认行为还是我应该设置的一些设置?通常,我希望程序崩溃(例如在 RStudio 中),而不是整个计算机
解决方案
推荐阅读
- gojs - 如何使用 gojs 画笔模式,以便图像仅在高度而不是宽度重复
- file - 如何获取上传到服务器的数据百分比
- c++ - 如何确保参数作为 const 引用传递?
- go - 使用 Gorm 修补对象。初始 NULL 整数现在为 0
- r - R 中的主效应没有 F & P 值
- pythonanywhere - 如何在控制台中安装第三方包?
- node.js - node.js 和 npm 安装在 Windows 中不起作用
- go - 如果仅更改一种参数类型,请避免代码重复
- c# - 使用 Visual States 切换 AppBarButton 可见性时出现“未检测到已安装的组件”错误
- python - TypeError:'int'对象在python的列表中不可下标