Googlebot не меняет скорость индексирования из-за сбоев в файле Sitemap

Общаясь с вебмастерами в Twitter, Джон Мюллер рассказал, что нарушения в работе файла Sitemap не могут повлиять на скорость прохождения контента поисковым роботом Google.

Один из экспертов SEO-отрасли (Мартин Макдональд) попросил Мюллера пояснить сказанное на конкретном примере. Допустим, что у сайта есть файл Sitemap, в который каждый день добавляется множество новых веб-страниц. Но в один прекрасный момент XML-карта перестанет корректно работать. Увеличит ли в этом случае Googlebot скорость сканирования контента?

На что представитель Google ответил, что сбои в Sitemap не способны изменять скорость прохождения поисковым роботом содержимого сайта. В том числе и повысить ее.

Источник: webformyself.com

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *