首页 > 解决方案 > 如何使检查网址的过程更快?

问题描述

作为项目的一部分,我必须检查 1,000,000 个 URL,它们被随机选择为有效或无效。我已经编写了代码并且它正在工作,但我想知道是否有一种方法可以让这变得更好,即更快/更高效。

我对这个效率世界了解不多,但我听说过多线程这个词,这有帮助吗?我该怎么做?

import requests
# url = "http://*******/(number from 1 to 1,000,000)"
available_numbers = []

for i in range(1,1000000):
    url = f"http://*************/{i}"
    data = requests.get(url)

    if data.status_code == 200:
        available_numbers.append(i)

print(available_numbers)

标签: pythonmultithreadingperformanceurl

解决方案


推荐阅读