hadoop - 如何将 50GB RDBMS 数据移动到 hadoop 中并进行处理?使用 hadoop 处理 50GB 数据的最低硬件要求是多少?
问题描述
如何将 50GB RDBMS 数据移动到 hadoop 中并进行处理?使用 hadoop 处理 50GB 数据的最低硬件要求是多少?
解决方案
您可以使用Apache Scoop将数据从 RDBMS 导入 Hadoop。关于最低硬件 - 这完全取决于您要在 Hadoop 集群中维护和处理的存储以及您将运行的工作负载类型。
推荐阅读
- android - ImageView drawable 未在 MarshMallow 上显示
- vb.net - 每次显示或加载表单时用当前日期填充一列
- c# - 如何将图像作为字节数组从 Angular 9 发送到 C# Web API Core,就像对象的属性一样?带有图像的 CRUD 客户端应用程序
- javascript - 获取第三个文本内容
里面的元素
元素 - git - Git:定期将回购复制到公司外部无法访问的另一个回购
- python - 如何使用 Python,Beautifulsoup 仅抓取包含在 DIV 元素中的印地语内容,没有任何类或 id?
- vb.net - 为什么 math.round 不四舍五入到 2 位?
- spring - 使用 Hibernate/Spring 数据批量插入 Postgres DB:60K 行需要 2 分钟,这是不可接受的
- flutter - 在 Flutter、Dart 中找到准确的单词
- terraform - 如何将实例列表中的“IP”和“名称”与 Terraform local-exec 结合起来