首页 > 解决方案 > 脚本在执行过程中的某个时间点抛出一些错误

问题描述

我使用pyppeteer在 python 中创建了一个脚本,以从网页中收集不同帖子的链接,然后通过重新使用这些收集的链接进入目标页面来解析每个帖子的标题。虽然内容是静态的,但我想知道 pyppeteer 在这种情况下是如何工作的。

我试图在函数和函数之间提供这个browser变量,以便我可以一遍又一遍地重用同一个浏览器。main()fetch()browse_all_links()

我目前的做法:

import asyncio
from pyppeteer import launch

url = "https://stackoverflow.com/questions/tagged/web-scraping"

async def fetch(page,url):
    await page.goto(url)
    linkstorage = []
    await page.waitForSelector('.summary .question-hyperlink')
    elements = await page.querySelectorAll('.summary .question-hyperlink')
    for element in elements:
        linkstorage.append(await page.evaluate('(element) => element.href', element))
    return linkstorage

async def browse_all_links(page,link):
    await page.goto(link)
    await page.waitForSelector('h1 > a')
    title = await page.querySelectorEval('h1 > a','(e => e.innerText)')
    print(title)

async def main():
    browser = await launch(headless=False,autoClose=False)
    [page] = await browser.pages()
    links = await fetch(page,url)
    tasks = [await browse_all_links(page,url) for url in links]
    await asyncio.gather(*tasks)

if __name__ == '__main__':
    asyncio.run(main())

上面的脚本获取了一些标题,但在执行过程中的某个时刻会吐出以下错误:

Possible to select <a> with specific text within the quotes?
Crawler Runs Too Slow
How do I loop a list of ticker to scrape balance sheet info?
How to retrive the url of searched video from youtbe using python
VBA-JSON to import data from all pages in one table
Is there an algorithm that detects semantic visual blocks in a webpage?
find_all only scrape the last value

#ERROR STARTS

Future exception was never retrieved
future: <Future finished exception=NetworkError('Protocol error (Runtime.releaseObject): Cannot find context with specified id')>
pyppeteer.errors.NetworkError: Protocol error (Runtime.releaseObject): Cannot find context with specified id
Future exception was never retrieved

标签: pythonweb-scrapingpuppeteerpyppeteerpython-asyncio

解决方案


由于这个问题发布已经两天了,但还没有人回答,我将借此机会解决这个问题,我认为可能对您有所帮助。

  • 有 15 个链接,但你只得到 7 个,这可能是 websockets 失去连接并且页面不再可访问

  • 列表理解

任务 =[await browse_all_links(page,url) for url in links]这个列表有什么期望?如果成功,它将是一个无元素列表。所以你的下一行代码会抛出错误!

  • 解决方案

    将 websockets 7.0 降级到 websockets 6.0

    去掉这行代码await asyncio.gather(*tasks)

    我使用的是 python 3.6,所以我不得不更改最后一行代码。如果您使用的是我认为您正在使用的 python 3.7,则不需要更改它

import asyncio
from pyppeteer import launch

url = "https://stackoverflow.com/questions/tagged/web-scraping"

async def fetch(page,url):
    await page.goto(url)
    linkstorage = []
    await page.waitForSelector('.summary .question-hyperlink')
    elements = await page.querySelectorAll('.summary .question-hyperlink')
    for element in elements:
        linkstorage.append(await page.evaluate('(element) => element.href', element))
    return linkstorage

async def browse_all_links(page,link):
    await page.goto(link)
    await page.waitForSelector('h1 > a')
    title = await page.querySelectorEval('h1 > a','(e => e.innerText)')
    print(title)
async def main():
    browser = await launch(headless=False,autoClose=False)
    [page] = await browser.pages()
    links = await fetch(page,url)
    tasks = [await browse_all_links(page,url) for url in links]
    #await asyncio.gather(*tasks)
    await browser.close()
if __name__ == '__main__':
    #asyncio.run(main())
    asyncio.get_event_loop().run_until_complete(main())
  • 输出

(testenv) C:\Py\pypuppeteer1>python stack3.py Scrapy Shell response.css 返回一个空数组 Scrapy real-time spider 为什么我在使用 get 请求读取数据时得到 KeyError?Scrapy spider 无法根据 args 重新定义 custom_settings 在 Splash UI 中使用 Lua 的自定义 JS 脚本 有人能解释一下这段代码为什么以及如何工作[暂停] 如何从字符串列表中提取所需的数据?Scrapy CrawlSpider 单页抓取规则如何抓取带有搜索栏结果的网页,当搜索查询未出现在 url 中嵌套 for 循环不断重复获取除标签列表之外的所有标签 BeautifulSoup 使用 Python 和 webbot 获取当前 URL 如何登录到站点并发送数据无法将值附加到列。出现错误 IndexError:列表索引超出范围 NextSibling.Innertext 不起作用。“对象不支持此属性”</p>


推荐阅读