python - 将抓取的数据保存到 CSV 文件
问题描述
我曾经将抓取的数据保存scrapy crawl name -o name.csv
为 CSV 文件。
因此,我曾经产生所有数据:
yield {
name: name,
phone: phone
}
现在我想将数据写入 CSV 文件,每个文件有 100 个条目。
将其保存为 CSV 的最简单方法是每个 100 个条目?
非常感谢 :)
解决方案
推荐阅读
- python - 在 Google Cloud Platform Function 中启用 CORS Python
- javascript - 更改元素的 CSS on Focus Out
- python - 有没有办法优化这个字典搜索?
- linux - 搜索 /lib/libpthread.so.0 时跳过不兼容的 /lib/libpthread.so.0
- python - 使用正则表达式(python)将一个数字分成 2 或 3 块
- c# - ASP .NET Core 3.1 API 重定向到 prod 环境中的登录页面
- javascript - 无法从我使用 Puppeteer 导航到的页面中抓取
- apache-spark - PySpark 将列添加到现有 DataFrame - TypeError:无效参数,不是字符串或列
- powershell - 从文本文件中的字符串导入并仅展开变量
- sas - 创建一个库,然后在 Base SAS 中创建一个表