首页 > 解决方案 > jupyter kernet 自动停止

问题描述

我正在尝试下载我的个人网站的数据。

我的问题是,在某些时候,当我通过将数据保存在 Json 文件中来下载数据时。jupyter kenerl 停止并且我有一个 pop :

内核重新​​启动:
内核似乎已经死机。它将自动重新启动。

and on invite command with the commad : python scrap.py
At some point I had this error :RecursionError: maximum recursion depth exceeded

请问谁能继续下载?

这是我的代码:

leafdata = {}
leafdata["data"]=[]
listJon=[]

for autor in Listo:


       site= "http://extracts.blabla.mydata="+str(names)

        hdr = {'User-Agent': 'Mozilla/5.0'}
        req = Request(site,headers=hdr)
        page = urlopen(req)
        soup = BeautifulSoup(page)
        DataBodyExtract= soup.find('body')

        JsonDataExtract= re.findall( r'{"Extracts":.*"PageCount":[0-9]+}',str(DataBodyExtract ) )

        with open('./mydata/dataLeafWk.json','a') as outfile:
            outfile.write(JsonDataExtract[0]+str(','))  


        #leafdata["data"].append(JsonDataExtract[0])

        time.sleep( random.randint(15,30) )

标签: pythonpython-3.x

解决方案


推荐阅读