python - 当 csv 具有大列时,Logstash 进程被终止
问题描述
我有一个 6gb ram 和存储的 pod,我一直在使用 logstash 将数据从 csv 同步到 Elastic Search,但同步一些数据后,logstash 进程被终止。我也用最少 1 个工人 500 批尝试过
**CSV chunk** {
Rows=> 5 million
columns=> 641
}
**pod configuration**
{
ram=> 6gb
storage => 6gb
}
**logstash config** :-
input {
file {
path => "/app/table1.csv" #ssv of 5m rows rows and 641 columns
start_position => "beginning"
sincedb_path => "/dev/null"
ignore_older => 36000000
close_older => 36000000
}
}
filter {
csv {
separator => ";"#csv separator
remove_field => ["message"]
}}
output {
elasticsearch {
hosts => ["localhost:9200"]
index => "activity_test04232_3"
retry_max_interval => 5
retry_initial_interval => 30
}#output ES host
}
解决方案
推荐阅读
- swift - 每次我尝试访问它时,Struct 的 UUID 类型的 id 都会发生变化
- linux - 如何清空日志文件的内容
- css - 打破 Grommet 样式组件样式的全局样式
- java - 在Java端解密列数据
- javascript - 如何将 Next.js 链接到现有的 HTML 静态网站?
- python - Python Flask - 从 open_session 调用时中止(400)不使用预期的模板
- mariadb - 我在存储过程 mariadb 中出现语法错误的原因是什么?
- c# - 如何将 JSON 反序列化为泛型对象,并根据 JSON 中的数据结构获取合适的类型?
- azure-log-analytics - 我正在使用度量收集器设备从我的每个设备收集一些天蓝色 IotHub 数据。如何获取这些insightMetrics 数据,设备方面
- c# - 在 MVC 中将秒转换为分钟不起作用