html - Lighthouse - robots.txt 错误语法不理解
问题描述
当我用它测试我的网站Lighthouse
时,我发现它在 robots.txt 中发现了 50 个错误,我不知道有什么问题以及如何解决它们。它显示了我的 index.html 文件的内容,每行都有错误。问题是什么?以及如何解决??
解决方案
嗯,最近也有类似的问题。我所要做的就是robots.txt
手动生成。只需谷歌它 - generate robots.txt
。然后将其上传到您的应用程序。生成sitemap.xml
.
如果你太懒了,你可以复制并粘贴以下代码:
User-agent: *
Allow: /
Disallow: /example // example is directory u want to exclude,
// if u dont want to exclude anything, just remove this line
Sitemap: https://example.com/sitemap.xml
推荐阅读
- python - 未能构建 boost_python 示例代码“致命错误 LNK1181:无法打开输入文件 'boost_python.lib'”
- java - Java:使用 Jackson 帮助读取 YAML 中的关联数组
- github - 如何在 GitHub.com 上组织 Visual Studio 项目?
- powershell - 如何显示在使用 get-content 和 select-string 一行中找到匹配的文件
- android - 无法在屏幕顶部显示文本视图
- ruby-on-rails - Doorkeeper ActiveRecord::NotNullViolation on "application_id" (password grant)
- reactjs - 使用嵌套将组件映射到数据
- javascript - 一个外部 JavaScript 文件与多个 html 页面相结合
- python - Kivy 更改标签文本
- python - 返回的 Web 抓取元素不是我要查找的值