首页 > 解决方案 > 从文件中读取 url 列表,然后使用 pandas 进行更改并输出新的 csv 文件

问题描述

我有这个脚本可以从文本文件中读取 csv 列表,这些文件是在线托管的。然后该脚本对每个文件进行更改,并根据更改创建一个新的 csv。目前它适用于单个文件,因为我无法让它遍历所有链接并从每个链接中创建新的 csvs 文件。将熊猫导入为 pd

f = open( "urls.txt", "r" )
lines = []
url = lines
for line in f:
   lines.append(line)
   df = pd.read_csv(url,skiprows=7)
   df = df.rename(columns={'*.conradbrothers.com/*_20180501':'Ranking','*.conradbrothers.com/*_difference': 'Difference'}) # Raname the top coloumn names
   df = df.replace(to_replace=["-"],value="0") #find - and replace with 0
   print(df)
   df.to_csv('seo.csv',index=False) #output file as a csv
   print(line)

f.close()

标签: pythonpandasloopscsv

解决方案


看到代码,好像你正在阅读一个空列表:

    df = pd.read_csv(url,skiprows=7)

不是吗

    df = pd.read_csv(line,skiprows=7)

我只是猜测,问题中提供的信息有限

哦,顺便说一句,您每次都使用相同的名称保存 csv,因此您正在覆盖它,请考虑在循环的每次迭代中更改名称


推荐阅读