首页 > 解决方案 > 在 URL 后面查找数据字典

问题描述

查找 URL 后面的数据字典

https://www.coingecko.com/fr/pi%C3%A8ces/1/markets_tab --> 比特币

https://www.coingecko.com/fr/pi%C3%A8ces/2/markets_tab --> LTC

https://www.coingecko.com/fr/pi%C3%A8ces/3/markets_tab --> AUR

https://www.coingecko.com/fr/pi%C3%A8ces/?/markets_tab --> ?

https://www.coingecko.com/fr/pi%C3%A8ces/100/markets_tab --> XLM

from bs4 import BeautifulSoup
from time import sleep
import requests 

i = 0
while(True):
try:
    if i == 0:
        url = "https://www.coingecko.com/fr/pi%C3%A8ces/1/markets_tab"
    else:
        url = "https://www.coingecko.com/fr/pi%C3%A8ces/{}/markets_tab".format(i)
    r = requests.get(url)
    soup = BeautifulSoup(r.content, 'html.parser')

    print(url)
    sleep(2)
    i += 2
except:
    break

我想扫描从 1 到 100 的所有数字,以便使用 python 找到对应的硬币。

标签: pythonpandasweb-scrapingbeautifulsoup

解决方案


IDK 你在找什么。你的问题不清楚。无论如何使用下面的代码,你应该能够循环,然后你可以做你想做的事。

import requests
from bs4 import BeautifulSoup

with requests.Session() as req:
    for item in range(1, 101):
        r = req.get(f"https://www.coingecko.com/fr/pi%C3%A8ces/{}/markets_tab")
        if r.status_code == 200:
            soup = BeautifulSoup(r.text, 'html.parser')
            # Do whatever.

推荐阅读