首页 > 解决方案 > 使用 Selenium Scraper (Python) 删除符号

问题描述

下面是一个 selenium 网络爬虫,它循环浏览该网站页面的不同选项卡,选择“导出数据”按钮,下载数据,添加“yearid”列,然后将数据加载到 MySQL 表中。

import sys
import pandas as pd
import os
import time
from datetime import datetime
from selenium import webdriver
from selenium.webdriver.firefox.firefox_profile import FirefoxProfile
from sqlalchemy import create_engine


button_text_to_url_type = {
    'dashboard': 8,
    'standard': 0,
     'advanced': 1,
     'batted_ball': 2,
     'win_probability': 3,
     'pitch_type': 4,
     'pitch_values': 7,
     'plate_discipline': 5,
     'value': 6
}

download_dir = os.getcwd()
profile = FirefoxProfile("C:/Users/PATHTOFIREFOX")
profile.set_preference("browser.helperApps.neverAsk.saveToDisk", 'text/csv')
profile.set_preference("browser.download.manager.showWhenStarting", False)
profile.set_preference("browser.download.dir", download_dir)
profile.set_preference("browser.download.folderList", 2)
driver = webdriver.Firefox(firefox_profile=profile)


today = datetime.today()
for button_text, url_type in button_text_to_url_type.items():

    default_filepath = os.path.join(download_dir, 'Fangraphs Leaderboard.csv')
    desired_filepath = os.path.join(download_dir,
                                    '{}_{}_{}_Leaderboard_{}.csv'.format(today.year, today.month, today.day,
                                                                         button_text))

    driver.get(
        "https://www.fangraphs.com/leaders.aspx?pos=all&stats=bat&lg=all&qual=0&type={}&season=2018&month=0&season1=2018&ind=0&team=&rost=&age=&filter=&players=".format(
            url_type))
    driver.find_element_by_link_text('Export Data').click()
    if os.path.isfile(default_filepath):
        os.rename(default_filepath, desired_filepath)
        print('Renamed file {} to {}'.format(default_filepath, desired_filepath))
    else:
        sys.exit('Error, unable to locate file at {}'.format(default_filepath))

    df = pd.read_csv(desired_filepath)
    df.str.replace('%', '')
    df["yearid"] = datetime.today().year
    df.to_csv(desired_filepath)

    engine = create_engine("mysql+pymysql://{user}:{pw}@localhost/{db}"
                           .format(user="walker",
                                   pw="password",
                                   db="data"))
    df.to_sql(con=engine, name='fg_test_hitting_{}'.format(button_text), if_exists='replace')

time.sleep(10)
driver.quit()

刮板工作得很好,但是,当我下载数据时,一些列下载的数据在一个整数(即 25%)之后带有一个 % 符号,这会抛出我在 MySQL 中的数据类型。我曾尝试使用 df.str.replace('%','') 和 df.replace('%',''),但都没有成功。将数据抓取到 Pandas 数据框中时,是否可以更改包含 % 符号的列,使其仅显示整数?我应该将其合并到我的循环中,还是可以在建立 Pandas 数据框后添加一行代码?提前致谢!

标签: pythonmysqlpandasseleniumweb-scraping

解决方案


df.replace不做就地替换。它返回修改后的数据框所以替换这个

df.str.replace('%', '')

经过

df = df.replace('%', '', regex=True)

推荐阅读