首页 > 解决方案 > 使用 TensorFlow 的 Datasets API 会导致进程在会话析构函数中挂起

问题描述

概括:

我们正在使用 TensorFlow 的数据集 API。更具体地说,我们tf.data.Dataset.from_generator用于创建基于生成器函数的数据集。

当 Python 对我们的tf.Session对象进行垃圾收集时,它的析构函数会调用 TensorFlow 以删除会话 ( tf_session.TF_DeleteSession)。此调用挂起,因为它试图执行一个tf.py_func函数,但无法获取 Python 的全局解释器锁。它试图执行的函数似乎是我们数据集中的“finalize”函数。

更多细节:

当我们的tf.Session对象在 Python 中被垃圾回收时,它的析构函数(__del__方法)会无限期地挂起。问题似乎是这个调用BaseSession

tf_session.TF_DeleteSession(self._session)

运行 lldb 显示以下堆栈跟踪:

* thread #1, queue = 'com.apple.main-thread', stop reason = signal SIGSTOP
  * frame #0: 0x0000000101855e7e libsystem_kernel.dylib`__psynch_cvwait + 10
    frame #1: 0x000000010188d662 libsystem_pthread.dylib`_pthread_cond_wait + 732
    frame #2: 0x00000001019b6cb0 libc++.1.dylib`std::__1::condition_variable::wait(std::__1::unique_lock<std::__1::mutex>&) + 18
    frame #3: 0x000000011279a63b libtensorflow_framework.so`nsync::nsync_mu_semaphore_p_with_deadline(nsync::nsync_semaphore_s_*, timespec) + 283
    frame #4: 0x0000000112796eb7 libtensorflow_framework.so`nsync::nsync_cv_wait_with_deadline_generic(nsync::nsync_cv_s_*, void*, void (*)(void*), void (*)(void*), timespec, nsync::nsync_note_s_*) + 423
    frame #5: 0x0000000112797621 libtensorflow_framework.so`nsync::nsync_cv_wait(nsync::nsync_cv_s_*, nsync::nsync_mu_s_*) + 49
    frame #6: 0x00000001090810e3 _pywrap_tensorflow_internal.so`tensorflow::Notification::WaitForNotification() + 67
    frame #7: 0x0000000109d4d809 _pywrap_tensorflow_internal.so`tensorflow::CapturedFunction::RunInstantiated(std::__1::vector<tensorflow::Tensor, std::__1::allocator<tensorflow::Tensor> > const&, std::__1::vector<tensorflow::Tensor, std::__1::allocator<tensorflow::Tensor> >*) + 649
    frame #8: 0x0000000109cffa21 _pywrap_tensorflow_internal.so`tensorflow::(anonymous namespace)::GeneratorDatasetOp::Dataset::Iterator::~Iterator() + 97
    frame #9: 0x0000000109cffb8e _pywrap_tensorflow_internal.so`tensorflow::(anonymous namespace)::GeneratorDatasetOp::Dataset::Iterator::~Iterator() + 14
    frame #10: 0x0000000109cfd669 _pywrap_tensorflow_internal.so`tensorflow::(anonymous namespace)::FlatMapDatasetOp::Dataset::Iterator::~Iterator() + 105
    frame #11: 0x0000000109cfd6de _pywrap_tensorflow_internal.so`tensorflow::(anonymous namespace)::FlatMapDatasetOp::Dataset::Iterator::~Iterator() + 14
    frame #12: 0x00000001019e98fd libc++.1.dylib`std::__1::__shared_weak_count::__release_shared() + 43
    frame #13: 0x0000000109d0a579 _pywrap_tensorflow_internal.so`tensorflow::(anonymous namespace)::IteratorResource::~IteratorResource() + 169
    frame #14: 0x0000000109d0a5fe _pywrap_tensorflow_internal.so`tensorflow::(anonymous namespace)::IteratorResource::~IteratorResource() + 14
    frame #15: 0x000000011226db4d libtensorflow_framework.so`tensorflow::ResourceMgr::DoDelete(std::__1::basic_string<char, std::__1::char_traits<char>, std::__1::allocator<char> > const&, unsigned long long, std::__1::basic_string<char, std::__1::char_traits<char>, std::__1::allocator<char> > const&, std::__1::basic_string<char, std::__1::char_traits<char>, std::__1::allocator<char> > const&) + 301
    frame #16: 0x000000011226dd50 libtensorflow_framework.so`tensorflow::ResourceMgr::DoDelete(std::__1::basic_string<char, std::__1::char_traits<char>, std::__1::allocator<char> > const&, std::__1::type_index, std::__1::basic_string<char, std::__1::char_traits<char>, std::__1::allocator<char> > const&) + 192
    frame #17: 0x0000000109d0c558 _pywrap_tensorflow_internal.so`tensorflow::(anonymous namespace)::OneShotIteratorOp::~OneShotIteratorOp() + 104
    frame #18: 0x0000000109d0c71e _pywrap_tensorflow_internal.so`tensorflow::(anonymous namespace)::OneShotIteratorOp::~OneShotIteratorOp() + 14
    frame #19: 0x00000001122670ff libtensorflow_framework.so`tensorflow::OpSegment::Item::~Item() + 63
    frame #20: 0x0000000112267ffd libtensorflow_framework.so`tensorflow::OpSegment::RemoveHold(std::__1::basic_string<char, std::__1::char_traits<char>, std::__1::allocator<char> > const&) + 205
    frame #21: 0x000000010b880b42 _pywrap_tensorflow_internal.so`tensorflow::DirectSession::~DirectSession() + 546
    frame #22: 0x000000010b88108e _pywrap_tensorflow_internal.so`tensorflow::DirectSession::~DirectSession() + 14
    frame #23: 0x000000010935dfd3 _pywrap_tensorflow_internal.so`TF_DeleteSession + 931
    frame #24: 0x0000000109006e5a _pywrap_tensorflow_internal.so`_wrap_TF_DeleteSession(_object*, _object*) + 122
    frame #25: 0x00000001007bb688 Python`_PyCFunction_FastCallDict + 568
    frame #26: 0x00000001008443e4 Python`call_function + 612
    frame #27: 0x0000000100849d84 Python`_PyEval_EvalFrameDefault + 21892
    frame #28: 0x00000001008447cc Python`_PyFunction_FastCallDict + 828
    frame #29: 0x000000010075f984 Python`_PyObject_FastCallDict + 356
    frame #30: 0x000000010075faa0 Python`_PyObject_Call_Prepend + 208
    frame #31: 0x000000010075f8d4 Python`_PyObject_FastCallDict + 180
    frame #32: 0x00000001007d6579 Python`slot_tp_finalize + 121
    frame #33: 0x000000010089b18a Python`collect + 1418
    frame #34: 0x000000010089b8c3 Python`_PyGC_CollectIfEnabled + 99
    frame #35: 0x000000010087af57 Python`Py_FinalizeEx + 119
    frame #36: 0x000000010087b0e0 Python`Py_Exit + 16
    frame #37: 0x000000010087ef4c Python`handle_system_exit + 252
    frame #38: 0x000000010087f1a5 Python`PyErr_PrintEx + 437
    frame #39: 0x0000000100880a1d Python`PyRun_SimpleStringFlags + 125
    frame #40: 0x00000001008992a4 Python`Py_Main + 1812
    frame #41: 0x0000000100000dfe Python
    frame #42: 0x0000000100000c34 Python

会话的析构函数似乎正在等待操作完成。罪魁祸首似乎是PyFuncOp,它没有越过这条线:

py_threadstate = PyGILState_Ensure();

所以看起来这个操作正在尝试获取 GIL 但不能。我的假设是这个 py_func 是数据集的“finalize”函数(来自_GeneratorDataset)。

我的假设是,当 Python 调用时tf_session.TF_DeleteSession(self._session),应该释放 GIL,PyFuncOp然后应该能够再次获取它。事实上,当我编写一个独立的测试来尝试重现它时,我没有看到这个问题,并且 GIL 已成功获取。

为此,我会在 TensorFlow 中提出一个错误,但我在一个小测试用例中未能成功重现它(它只发生在我们的“真实”系统中,尽管它在那里完全可以重现)。

谁能帮我理解这里发生了什么?

标签: pythontensorflow

解决方案


这被认为是 TensorFlow 中的一个错误:https ://github.com/tensorflow/tensorflow/issues/21277

现在已经修复了,但我不确定它会变成什么版本(可能是 1.11.0)。


推荐阅读