首页 > 解决方案 > StreamSets 将文本转换为 Json

问题描述

我正在尝试将文本数据从本地目录摄取到HDFS,在摄取之前我需要将文本转换为有效的 json。为此,我正在使用 JavaScript Evaluator 处理器。

在 javascript 评估器中,我无法读取任何记录。

这是我的示例代码:

for(var i = 0; i < records.length; i++) {
 try {  
   output.write(records[i]);
 } catch (e) {
   error.write(records[i], e);
 }
}

除了 JavaScript 评估器还有其他更好的选择吗?

这是我的示例输入数据:

{
    1046=
    1047=
    1048=5324800
    1049=20180508194648
    1095=2297093400,
    1111=up_default
    1118=01414011002101251
    1139=1
}
{
    1140=1
    1176=mdlhggsn01_1.mpt.com;3734773893;2472;58907
    1183=4
    1211=07486390
    1214=0
    1227=51200
    1228=111
    1229=0
    1250=614400,
}

更新:

根据@metadaddy 的回答,我尝试使用安装了 JavaScript 的 Groovy。对于@metadaddy 在他的回答中显示的相同数据,我得到了以下异常。

这是我的错误截图。在此处输入图像描述

标签: javascriptpipelinestreamsets

解决方案


您的 JavaScript 需要通读输入,构建输出记录。

使用文本/text格式,目录源将为每行输入创建一个包含一个字段的记录。

此 JavaScript 将构建您需要的记录结构:

for(var i = 0; i < records.length; i++) {
  try {
    // Start of new input record
    if (records[i].value.text.trim() === '{') {
      // Use starting input record as output record
      // Save in state so it persists across batches
      state.outRecord = records[i];
      // Clean out the value
      state.outRecord.value = {};
      // Move to next line
      i++;
      // Read values to end of input record
      while (i < records.length && records[i].value.text.trim() !== '}') {
        // Split the input line on '='
        var kv = records[i].value.text.trim().split('=');
        // Check that there is something after the '='
        if (kv[1].length > 0) {
          state.outRecord.value[kv[0]] = kv[1];   
        } else if (kv[0].length > 0) {
          state.outRecord.value[kv[0]] = NULL_STRING;
        }
        // Move to next line of input
        i++;
      }

      // Did we hit the '}' before the end of the batch?
      if (i < records.length) {
        // Write record to processor output
        output.write(state.outRecord);
        log.debug('Wrote a record with {} fields', 
            Object.keys(state.outRecord.value).length);
        state.outRecord = null;        
      }
    }
  } catch (e) {
    // Send record to error
    log.error('Error in script: {}', e);
    error.write(records[i], e);
  }
}

以下是示例输入数据转换的预览:

在此处输入图像描述

现在,要将整个记录作为 JSON 写入 HDFS,只需将Hadoop FS 目标中的数据格式设置为 JSON。


推荐阅读