首页 > 解决方案 > 币安订单簿管理

问题描述

我从币安 api 获得了 BTCUSDT 的订单历史数据。根据有关“如何管理本地订单簿”的 binance api,首先使用 websocket 获取和缓冲数据,然后使用 api 获取订单簿数据,并使用 lastOrderId 删除我缓冲的过时数据。但是我得到的数据是 2 个 csv 文件。depth_snap 和 depth_update。所以我试着做api告诉我要做的事情。第一部分已经完成,因为它说使用存储在 depth_update 中的 websocket 获取缓冲区数据。并通过使用 depth_snap 中的 lastOrderId 我尝试做第二部分,删除过时的数据,只是意识到 lastOrderId 不能使用。

我检查了lastOrderId,发现lastOrderId在depth_snap和depth_update中没有重叠。所以我想我应该使用 depth_snap 数据而不是 depth_update。但是数据之间的时间间隔约为 40 分钟,这太长了。

我确实检查了时间戳以确保数据在同一日期

我如何使用这个 depth_snap 和 depth_update 来创建订单数据?我检查了时间戳和csv文件(不同日期的depth_snap.csv)之间的lastOrderId和pu(上一个数据的lastOrderId),发现它们是有序的。因为数据是连续的,所以只使用 depth_snap 并制作订单簿数据可以吗?

标签: pythonbinanceorderbook

解决方案


您应该添加代码以明确您所做的工作。

根据我自己的经验,以下是使用 binance websocket 的方法:

client = Client('PUBLICKEY')

data = {}

def spread(msg):
    latence = msg['data']['T']-time.time()*1000
    msg['lat'] = latence

    if np.abs(latence) < 500:
        msg['latence'] = False
    else:
        msg['latence'] = True

    with open('data/w'+msg['data']['s']+".dat", 'wb') as out:
        pickle.dump(msg, out)

    os.rename('data/w'+msg['data']['s']+".dat",'data/'+msg['data']['s']+".dat")
    print ("WEBSOCKET %s" % (round(latence)))

bm = BinanceSocketManager(client)
conn_key = bm.start_all_ticker_futures_socket(spread)
bm.start()

换句话说,您不应该在回调函数中进行任何处理

你应该在任何你喜欢的地方写入数据,并从它的其他地方处理。

我知道这些指导方针可能看起来违反直觉,但如果不遵循这一点,我个人会得到长达数十秒的延迟,并且它会一直停留在过去而无法恢复。

您还应该计算延迟以标记何时暂停操作。

如果您随着时间的推移监控 Binance API 延迟,您有时会观察到巨大的延迟峰值,尤其是当您在市场上有大动作时。


推荐阅读