Перейти к публикации

Ограничения для поисковых ботов через robots.txt


DeeMon

Рекомендованные сообщения

Столкнулся что на один мой сайт повысилась нагрузка из за усиленной работы ботов поисковиков. Страниц много и они видимо очень бурно начали рыть сайт, в частности Google.

Дак вот, решил ограничить им параметры. Например прописать:

User-agent: *

Disallow:

Host: sait.ru

Crawl-delay: 2 # задает таймаут в 2 секунды

Так будет правильно или нет? Интересует для всех ботов настройка.

Ссылка на сообщение
Поделиться на других сайтах
  • 2 недели спустя...

Crawl-delay: 2 # задает таймаут в 2 секунды

Как понял Google бот эту строку не учитывает. Ограничение для него можно задать только через https://www.google.com/webmasters/

Ссылка на сообщение
Поделиться на других сайтах

Архивировано

Эта тема находится в архиве и закрыта для публикации сообщений.

×
×
  • Создать...