c# - 使用 HtmlAgilityPack 在 GeckoFX 中出现 C# 大量内存泄漏
问题描述
我正在编写一个程序来抓取许多公司的网站(最多 100,000 个),以获取最新的联系信息以及有关他们在 C# 中的运营领域的一些信息。因为大多数网站无法在常规的 .NET 网络浏览器中显示,所以我使用 geckofx 导航到这些网站并查找与我相关的内容,我使用 HtmlAgilityPack 选择节点。
这个过程总是一样的:如果我有一个公司的 URL,我会立即访问该网站,否则我会使用 bing 查找网址(Google 似乎不喜欢被自动使用)。在网站上,我寻找指向印记的链接和指向可能表明某些活动领域的页面的链接,然后导航到这些链接并查找我事先指定的流行语。DocumentCompleted
一切都在同步运行,我每次都等待浏览器触发它的事件。
一个例子:
//I navigate to bing looking for my company's name and postal code
Variables.browser.Navigate("https://www.bing.com/search?q=" + c.Name.Replace(" ", "+") + "+" + c.Zip.Replace(" ", "+"));
//I wait for the browser to finish loading. The Navigating event sets BrowserIsReady to false and the DocumentCompleted event sets it to true
do
{
f.Application.DoEvents();
} while (!Variables.BrowserIsReady);
HtmlDocument browserDoc = new HtmlDocument();
browserDoc.LoadHtml(Variables.browser.Document.Body.OuterHtml);
//I select the relevant node in the document
HtmlNode sidebarNode = browserDoc.DocumentNode.SelectSingleNode("//div[contains(concat(\" \", normalize-space(@class), \" \"), \" b_entityTP \")]");
if (sidebarNode != null)
{
Variables.logger.Log("Found readable sidebar. Loading data...");
string lookedUpName, lookedUpStreet, lookedUpCity, lookedUpZip, lookedUpPhone, lookedUpWebsite;
HtmlNode infoNode = sidebarNode.SelectSingleNode("//div[contains(concat(\" \", normalize-space(@class), \" \"), \" b_subModule \")]");
HtmlNode nameNode = infoNode.SelectSingleNode("//div[contains(concat(\" \", normalize-space(@class), \" \"), \" b_feedbackComponent \")]");
if (nameNode != null)
{
string[] dataFacts = nameNode.GetAttributeValue("data-facts", "").Replace("{\"", "").Replace("\"}", "").Split(new string[] { "\",\"" }, StringSplitOptions.None);
foreach (string dataFact in dataFacts)
{
//... abbreviated
}
}
//And at the end of every call to a node object I set it back to null
nameNode = null;
}
我的 geckofx 不允许将缓存写入内存或从网站加载图像,这是我使用设置的
GeckoPreferences.Default["browser.cache.memory.enabled"] = false;
GeckoPreferences.Default["permissions.default.image"] = 2;
在创建我的 GeckoWebBrowser 实例之前。
在每个被抓取的网站之后,我都会打电话
//CookieMan is used as a global variable so I don't have to recreate it every time.
private static nsICookieManager CookieMan;
//...
CookieMan = Xpcom.GetService<nsICookieManager>("@mozilla.org/cookiemanager;1");
CookieMan = Xpcom.QueryInterface<nsICookieManager>(CookieMan);
CookieMan.RemoveAll();
Gecko.Cache.ImageCache.ClearCache(true);
Gecko.Cache.ImageCache.ClearCache(false);
Xpcom.GetService<nsIMemory>("@mozilla.org/xpcom/memory-service;1").HeapMinimize(true);
删除 cookie、图像缓存(我什至不确定是否已创建)并最大限度地减少 Xulrunners 的内存使用。
尽管如此,在以每条记录大约 2-3 秒的运行时间和 200-300mb 的舒适内存使用情况良好地开始之后,每条记录都很快达到 16-17 秒,并且在 1 小时后仅我的爬虫就使用了超过 2gb 的内存。
我尝试强制垃圾收集GC.Collect();
(我知道,你不应该这样做),甚至通过停止、处理和重新创建它来回收整个浏览器对象,以尝试摆脱内存中未使用的垃圾,但无济于事。我也试图关闭 Xulrunner 并重新启动它,但Xpcom.Shutdown()
似乎停止了整个应用程序,所以我无法做到这一点。
在这一点上,我几乎没有想法,非常感谢对我尚未采取的方法的新提示。
解决方案
您是否尝试过使用回收的 AppDomains?
AppDomain workerAppDomain = AppDomain.CreateDomain("WorkerAppDomain");
workerAppDomain.SetData("URL", "https://stackoverflow.com");
workerAppDomain.DoCallBack(() =>
{
var url = (string)AppDomain.CurrentDomain.GetData("URL");
Console.WriteLine($"Scraping {url}");
var webClient = new WebClient();
var content = webClient.DownloadString(url);
AppDomain.CurrentDomain.SetData("OUTPUT", content.Length);
});
int contentLength = (int)workerAppDomain.GetData("OUTPUT");
AppDomain.Unload(workerAppDomain);
Console.WriteLine($"ContentLength: {contentLength:#,0}");
输出:
抓取https://stackoverflow.com
ContentLength: 262.013
您在主 AppDomain 和工作 AppDomain 之间传递的数据必须是可序列化的。
更新:最干净的解决方案应该是使用单独的进程。这将保证可以可靠地清理泄漏。
推荐阅读
- node.js - CocoaPods 找不到 pod“lottie-ios”的兼容版本
- symfony - Symfony 3.4:重定向问题
- php - Laravel 8:未定义变量:文章
- javascript - 如何在 Firebase Web 中更新 childSnapShot 值
- javascript - 如何将以下使用复选框的数据表脚本代码全部调整到我的 asp.net 核心应用程序?
- bash - Bash 脚本中的用户输入?
- http - 序列化 Http 响应的原因
- kubernetes - 在 Kubernetes 节点亲和性中,什么是 IgnoredDuringExecution?
- spring-boot - Mybatis spring boot如何创建动态更新查询
- kubernetes - 零停机 K8S 部署:等到探测器知道后再真正停止 Pod?