python - 如何使检查网址的过程更快?
问题描述
作为项目的一部分,我必须检查 1,000,000 个 URL,它们被随机选择为有效或无效。我已经编写了代码并且它正在工作,但我想知道是否有一种方法可以让这变得更好,即更快/更高效。
我对这个效率世界了解不多,但我听说过多线程这个词,这有帮助吗?我该怎么做?
import requests
# url = "http://*******/(number from 1 to 1,000,000)"
available_numbers = []
for i in range(1,1000000):
url = f"http://*************/{i}"
data = requests.get(url)
if data.status_code == 200:
available_numbers.append(i)
print(available_numbers)
解决方案
推荐阅读
- javascript - 如何在 ES6 中通过键 + 值比较 2 个对象
- html - 如何在引导程序中减小 div 的大小?
- python - 尝试除了每个 AttributeError?
- oracle - 您需要在什么条件下指定选择才能使触发器起作用?
- symfony - 是否可以在 Windows 7 上从 4.21.6 更新 Symfony 5?
- c - 在 mini-shell 中使用 setpgid 会破坏交互式命令
- react-native - React Native'TypeError:未定义不是对象(评估'navigation.navigate')'
- python-3.x - 如何为 sqlcipher/sqlite 导出强制编码?
- amazon-web-services - 并发 AWS Lambda 之间的通信
- c# - c#错误没有得到要查看的引用