python - python爬取错误:单个位置索引器超出范围
问题描述
我正在尝试从网站抓取数据并生成错误:单个位置索引器超出范围
代码如下:
headurl="https://www.zoopla.co.uk/for-sale/details/"
endurl="?search_identifier=733971d356a1970075aa7789ec8c815c"
midrul=""
for i in range(0,len(data),1):
midurl= data.iloc[i,1]
midurl=str(midurl)
web=headurl+midurl+endurl
text=requests.get(web)
try:
address=re.compile(r'display_address: "(.*?)",\n')
mytext1=re.findall(address,text.text)
data.iloc[i,3]=mytext1[0]
except:
data.iloc[i,3]="nodata"
mytext1 实际上是存在的,因为当我使用 print() 时它会被一个一个打印出来
任何人都知道为什么会产生错误?
解决方案
错误出现在except
代码的一部分中,我确信您已通过错误消息确认。之前已经回答了这个问题,在这里:https ://stackoverflow.com/a/37960827/7176819 。
几个小贴士:
- 写此类问题时包括回溯
- 请缩进你的代码。
推荐阅读
- jquery - 导航栏未在滚动时选择部分项目 - Bootstrap
- javascript - 未捕获的 SyntaxError:将 HTML 添加到在线商店的 JS 文件时出现无效或意外的令牌错误
- python - 在 for 循环中添加了额外的字典键
- mysql - 使用“ORDER BY”的简单 SQL 查询需要多 10-20 倍
- django - 如何使用对象多对多的属性?
- docker - 问题:在 Devenv Vagrant Fabric v1.4 中设置与 PBFT 共识问题
- react-native - 减速机不改变状态
- asp.net-core - 用于 spa 和 async 的 Net core API
- bash - 使用基于子字符串的条件在 shell 脚本中查找文件
- apache-spark - 使用 S3A 从 S3 对象存储分区下载 CSV