DeeMon 73 Опубликовано: 11 июня 2013 Рассказать Опубликовано: 11 июня 2013 Столкнулся что на один мой сайт повысилась нагрузка из за усиленной работы ботов поисковиков. Страниц много и они видимо очень бурно начали рыть сайт, в частности Google. Дак вот, решил ограничить им параметры. Например прописать: User-agent: * Disallow: Host: sait.ru Crawl-delay: 2 # задает таймаут в 2 секунды Так будет правильно или нет? Интересует для всех ботов настройка. Ссылка на сообщение Поделиться на других сайтах
celsoft 6229 Опубликовано: 11 июня 2013 Рассказать Опубликовано: 11 июня 2013 Да правильно. http://dle-news.ru/tips/557-priruchaem-poiskovyx-robotov.html Ссылка на сообщение Поделиться на других сайтах
DeeMon 73 Опубликовано: 24 июня 2013 Рассказать Опубликовано: 24 июня 2013 Автор Crawl-delay: 2 # задает таймаут в 2 секунды Как понял Google бот эту строку не учитывает. Ограничение для него можно задать только через https://www.google.com/webmasters/ Ссылка на сообщение Поделиться на других сайтах
Рекомендованные сообщения
Архивировано
Эта тема находится в архиве и закрыта для публикации сообщений.