综合seo网站robots文件常见问题

什么是robots.txt文件

搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做robots.txt的纯文本文件,这个文件用于指定spider在网站上的抓取范围。可以在网站中创建一个robots.txt,在文件中声明该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。

请注意,仅当网站综合seo包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。

robots.txt文件放在哪里?

robots.txt文件应该放置在网站根目录下。

在robots.txt中禁止百度收录,百度搜索结果中还会显显示吗?

如果其它网站链接了robots.txt文件中设置的禁止收录的网页,那么这些网页仍然可能会出现在百度的搜索结果中,但网页上的内容不会被抓取、建入索引和显示,百度搜索结果中展示的仅是其它网站相关网页的描述。

原文链接:https://www.bailuze.com/4221.html,转载请注明出处。
本站所有文章,如无特殊说明或标注,均为本站原创发布。任何在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。
0