alex19841 0 Опубликовано: 3 августа 2010 Рассказать Опубликовано: 3 августа 2010 DLE vession: 8.5 Google ругается что Duplicate meta descriptions and title tags in pages: /blog/2010/07/20/ /blog/2010/07/20/page/2/ /blog/2010/07/21/ /blog/2010/07/22/ /blog/2010/07/24/ /blog/2010/07/ /blog/page/10/ /blog/page/2/ /blog/page/3/ /blog/page/4/ /blog/page/5/ /blog/page/6/ /blog/page/7/ /blog/page/8/ /blog/page/9/ на этих всех страницах двихок не генерирует новое название страници и её описание. Тоесть мета таги остаются теже-дупликаты при перелистовки страниц что негативно влияет на SEO. Хотнлось бы унать если есть какой нибудь патч для решение этой проблемы? Ссылка на сообщение Поделиться на других сайтах
zgr 72 Опубликовано: 3 августа 2010 Рассказать Опубликовано: 3 августа 2010 Хотнлось бы унать если есть какой нибудь патч для решение этой проблемы? Патч такой есть, называется роботс.тхт, пару дней назад выкладывал мега-фак по нему где-то здесь. Ссылка на сообщение Поделиться на других сайтах
alex19841 0 Опубликовано: 4 августа 2010 Рассказать Опубликовано: 4 августа 2010 Автор Хотнлось бы унать если есть какой нибудь патч для решение этой проблемы? Патч такой есть, называется роботс.тхт, пару дней назад выкладывал мега-фак по нему где-то здесь. robots.txt??? ваш выход в этой ситуации зто блокирока этих страниц от индесации поисковых систем??? Ссылка на сообщение Поделиться на других сайтах
zgr 72 Опубликовано: 4 августа 2010 Рассказать Опубликовано: 4 августа 2010 robots.txt??? ваш выход в этой ситуации зто блокирока этих страниц от индесации поисковых систем??? Совершенно верно! Указанные вами страницы - представляют из себя поисковый мусор, а не уникальный контент, которым является исключительно только полные новости, а всё остальное - предоставляется пользователям для удобства, в том числе статистика (сайта, пользователей и т.д., календарик (архив), и многое другое). Если интересуетесь СЕО, то должны это знать. В последнее время (где-то год) предлагают не закрывать подобные страницы, а уточнять какие из них являются главными через оператор "rel" (ноуфоллоу, ноуиндекс, каноникал и прочие), но это геморой, проще закрыть в роботсе и не париться. Ссылка на сообщение Поделиться на других сайтах
alex19841 0 Опубликовано: 4 августа 2010 Рассказать Опубликовано: 4 августа 2010 Автор robots.txt??? ваш выход в этой ситуации зто блокирока этих страниц от индесации поисковых систем??? Совершенно верно! Указанные вами страницы - представляют из себя поисковый мусор, а не уникальный контент, которым является исключительно только полные новости, а всё остальное - предоставляется пользователям для удобства, в том числе статистика (сайта, пользователей и т.д., календарик (архив), и многое другое). Если интересуетесь СЕО, то должны это знать. В последнее время (где-то год) предлагают не закрывать подобные страницы, а уточнять какие из них являются главными через оператор "rel" (ноуфоллоу, ноуиндекс, каноникал и прочие), но это геморой, проще закрыть в роботсе и не париться. чарез robots.txt закрывать так страници тоже геморой потомучто новая статья это новый день, месяц, год. Тоесть это все надо будет закрывать каждый раз, как будет выглядеть robots.txt через 5 лет если в день будет 5 новых статей. И потом как только статьи будут переходить на вторую страницу то переход на них (crawl) будет остановлен поисковыми системами. Даже если поисковик будет к ним переходить через линки категорий потомучто под категориями тоже будут генерироваться линки на вторые страници которые надо тоже будет блокировать через robots.txt таким образом старые статьи будут вылетать из индексации. Это все намного легче исправить добавив генерированием Page 2, Page 3... слов к title тагам. На счет duplicate content то первая страница отличается от второй разным контентом, rel="canonical" добовляется если две страници выдают абсолютно одинакой контент, пример page 1 и print весия страници page 1c Ссылка на сообщение Поделиться на других сайтах
Captain 636 Опубликовано: 4 августа 2010 Рассказать Опубликовано: 4 августа 2010 Ни чего вылетать не будет, есть сайтмап. У людей десятки тысяч страниц и ни чего. Для того что в первом посте написали robots.txt будет такой: User-agent: * Disallow: /blog/page/ Disallow: /blog/2010/ Allow: / Host: www.ваш_сайт.ru Все Ссылка на сообщение Поделиться на других сайтах
alex19841 0 Опубликовано: 4 августа 2010 Рассказать Опубликовано: 4 августа 2010 Автор насчет rel="canonical" и content="noindex, nofollow" на вторых и третьях... страницах вы правы! не плохо было бы еслиб DLE добовлял сам rel="canonical" и content="noindex, nofollow" на вторых и третьях... страницах к главной первой странице. Ссылка на сообщение Поделиться на других сайтах
Captain 636 Опубликовано: 4 августа 2010 Рассказать Опубликовано: 4 августа 2010 Ну да, и контент бы сам писал. Ссылка на сообщение Поделиться на других сайтах
zgr 72 Опубликовано: 4 августа 2010 Рассказать Опубликовано: 4 августа 2010 Ну да, и контент бы сам писал. ну. А если серьезно, то такая фича в ВП работает автоматом. В коде нужно дописать всего лишь строк 10-20, чтобы каноникал автоматом ставился, можно уж было бы реализовать и на уровне движка, а не доп. плагинов... Всё-таки 21-й век на дворе Ссылка на сообщение Поделиться на других сайтах
alex19841 0 Опубликовано: 5 августа 2010 Рассказать Опубликовано: 5 августа 2010 Автор закончил с nofollow, незнаю добалять ли nofollow к категориям? Ссылка на сообщение Поделиться на других сайтах
zgr 72 Опубликовано: 5 августа 2010 Рассказать Опубликовано: 5 августа 2010 Не нужно для тегов и категорий, а также страниц (на главной /page/2/, /page/3/, ...) - поисковики сами часть страниц выкинут, если посчитают это необходимым. А календарь - это поисковый мусор, он для удобства навигации пользователей, а не для поисковиков, а также некоторая техническая информация, например, список всех юзеров, подробное инфо о них, стата сайта и т.д. - это должны видеть только зарегистрированные пользователи, либо только зашедшие на сайт, а не поисковики Ссылка на сообщение Поделиться на других сайтах
alex19841 0 Опубликовано: 5 августа 2010 Рассказать Опубликовано: 5 августа 2010 Автор так если поисковиков пропускать на /page/2/, /page/3/, ... на главной то они начинают ругать что Duplicate meta descriptions and title tags Ссылка на сообщение Поделиться на других сайтах
Captain 636 Опубликовано: 5 августа 2010 Рассказать Опубликовано: 5 августа 2010 alex19841, для начала прочитайте и выполните правила форума. Да и со своими вопросами вы не в ту ветку сунулись. Ссылка на сообщение Поделиться на других сайтах
freeprogs.kiev.ua 0 Опубликовано: 17 декабря 2010 Рассказать Опубликовано: 17 декабря 2010 Посмотрите статью о robots.txt для DataLife Engine и Борьба с дублированием контента в DataLife Engine. Рассматриваются возможные решения дублирования контента в DataLife Engine. Ссылка на сообщение Поделиться на других сайтах
Рекомендованные сообщения
Архивировано
Эта тема находится в архиве и закрыта для публикации сообщений.