首页 > 解决方案 > np.where 对 np.nan 的处理(NaN 评估为值 < 0)

问题描述

我正在使用 np.where 对浮点数进行逻辑测试,以确定该值是 > 还是 < 0。由于计算,pandas 数据框中存在 np.nan 值,我希望 np.where 函数为“忽略” np.nan 行 - 换句话说,将该行保留为 np.nan。我怎样才能做到这一点?

这是一个带有一些虚拟数据的示例。

import pandas as pd
import numpy as np

#create some dummy data with datetime index
prices = [100, 99, 98, 101, 102, 99]
dates = pd.date_range(start='1/1/2018', end='1/06/2018')
so_df = pd.DataFrame(prices, index=dates)
so_df.columns = ['Close']

#calculate daily % changes
so_df['pct_change'] = so_df.Close.pct_change()

#logic test to determine if pct_change > 0 or not
so_df['greater_zero?'] = np.where(so_df['pct_change'] > 0, 1, 0)

查看数据框,我们可以看到第一行是 np.nan,但 numpy 将其评估为小于零的值,这是不正确的。这应该只是一个 np.nan。

    Close   pct_change  greater_zero?
2018-01-01  100 NaN 0
2018-01-02  99  -0.010000   0
2018-01-03  98  -0.010101   0
2018-01-04  101 0.030612    1
2018-01-05  102 0.009901    1
2018-01-06  99  -0.029412   0

查看np.where 文档,似乎没有关于如何处理 np.nan 值的嵌入式参数。我还尝试嵌入多个 np.where 函数,但无法使其正常工作。还有其他想法吗?

标签: pythonpandasnumpynan

解决方案


您可以使用Series.mask设置NaN值:

so_df['greater_zero?'] = np.where(so_df['pct_change'] > 0, 1, 0)
so_df['greater_zero?'].mask(so_df['pct_change'].isna(),np.nan,inplace=True)

print(so_df)

            Close  pct_change  greater_zero?
2018-01-01    100         NaN            NaN
2018-01-02     99   -0.010000            0.0
2018-01-03     98   -0.010101            0.0
2018-01-04    101    0.030612            1.0
2018-01-05    102    0.009901            1.0
2018-01-06     99   -0.029412            0.0

Series.where

so_df['greater_zero?'].where(so_df['pct_change'].notna(),np.nan,inplace=True)

推荐阅读