首页 > 解决方案 > 用小 RAM 在 Go 中读取大文件的最快方法

问题描述

我想从不同的文本或JSONCSV文件中读取数据。我应该遵循哪种方法?

我有博客文章File read and Read 2 GB text file with small RAM,用于文件读取的不同方法。

不同的方法:

用小 RAM 读取文件的最快方法是什么?

标签: filego

解决方案


解析文件基本上有两种不同的方法:文档解析和流解析。

文档解析从文件中读取数据并将其转换为您可以查询的大量对象,例如浏览器中的 HTML DOM。优点是您可以轻松获得完整的数据,这通常更简单。缺点是您必须将其全部存储在内存中。

dom = parse(stuff)

// now do whatever you like with the dom

相反,流解析一次读取一个元素并将其呈现给您以供立即使用,然后继续处理下一个元素。

for element := range stream(stuff) {
    ...examine one element at a time...
}

优点是您不必将整个内容加载到内存中。缺点是您必须处理经过的数据。这对于搜索或其他需要一一处理的内容非常有用。


幸运的是,Go 提供了库来为您处理常见格式。

一个简单的示例是处理 CSV 文件。

package main

import(
    "encoding/csv"
    "fmt"
    "log"
    "os"
    "io"
)

func main() {
    file, err := os.Open("test.csv")
    if err != nil {
        log.Fatal(err)
    }

    parser := csv.NewReader(file)

    ...
}

我们可以将整个事情作为一个大的[][]string.

records, err := parser.ReadAll()
if err != nil {
    log.Fatal(err)
}

for _,record := range records {
    fmt.Println(record)
}

或者我们可以节省一堆内存并一次处理一行。

for {
    record, err := parser.Read()
    if err == io.EOF {
        break
    }
    if err != nil {
        log.Fatal(err)
    }

    fmt.Println(record)
}

由于 CSV 的每一行在功能上都是相同的,因此一次处理一行是最有意义的。

JSON 和 XML 更复杂,因为它们是大型的嵌套结构,但它们也可以流式传输。encoding/json 文档中有一个流式传输的示例


如果你的代码不是一个简单的循环怎么办?如果您想利用并发性怎么办?使用通道和 goroutine 与程序的其余部分同时提供它。

records := make( chan []string )
go func() {
    parser := csv.NewReader(file)

    defer close(records)
    for {
        record, err := parser.Read()
        if err == io.EOF {
            break
        }
        if err != nil {
            log.Fatal(err)
        }

        records <- record
    }
}();

现在您可以传递records给可以处理它们的函数。

func print_records( records chan []string ) {
    for record := range records {
        fmt.Println(record)
    }
}

推荐阅读