首页 > 解决方案 > 在 Google Search Console 中阻止外部 URL 进行抓取

问题描述

我在某些页面上有很多错误,因为 Google Search Console 爬虫无法加载页面上的所有资源。资源太多(在其他问题中提到)。所以我需要选择一些 Google 可以完全跳过的资源(比如 Facebook 脚本或 Adob​​e typekit 脚本)

我尝试通过 robots.txt 文件执行此操作,但这不起作用,因为它只能阻止同一域上的 URL。

有谁知道如何阻止 Google Search Console 抓取外部域上的特定文件?还是我需要下载这些文件并从我自己的域中提供它们?

或者另一个问题,是否有可能为爬虫优先考虑某些 CSS 文件?

标签: robots.txtgoogle-search-console

解决方案


推荐阅读