alex19841 0 Опубликовано: 3 августа 2010 Рассказать Опубликовано: 3 августа 2010 DLE vession: 8.5 Google ругается что Duplicate meta descriptions and title tags in pages: /blog/2010/07/20/ /blog/2010/07/20/page/2/ /blog/2010/07/21/ /blog/2010/07/22/ /blog/2010/07/24/ /blog/2010/07/ /blog/page/10/ /blog/page/2/ /blog/page/3/ /blog/page/4/ /blog/page/5/ /blog/page/6/ /blog/page/7/ /blog/page/8/ /blog/page/9/ на этих всех страницах двихок не генерирует новое название страници и её описание. Тоесть мета таги остаются теже-дупликаты при перелистовки страниц что негативно влияет на SEO. Хотнлось бы унать если есть какой нибудь патч для решение этой проблемы? Цитата Ссылка на сообщение Поделиться на других сайтах
zgr 72 Опубликовано: 3 августа 2010 Рассказать Опубликовано: 3 августа 2010 Хотнлось бы унать если есть какой нибудь патч для решение этой проблемы? Патч такой есть, называется роботс.тхт, пару дней назад выкладывал мега-фак по нему где-то здесь. Цитата Ссылка на сообщение Поделиться на других сайтах
alex19841 0 Опубликовано: 4 августа 2010 Рассказать Опубликовано: 4 августа 2010 Автор Хотнлось бы унать если есть какой нибудь патч для решение этой проблемы? Патч такой есть, называется роботс.тхт, пару дней назад выкладывал мега-фак по нему где-то здесь. robots.txt??? ваш выход в этой ситуации зто блокирока этих страниц от индесации поисковых систем??? Цитата Ссылка на сообщение Поделиться на других сайтах
zgr 72 Опубликовано: 4 августа 2010 Рассказать Опубликовано: 4 августа 2010 robots.txt??? ваш выход в этой ситуации зто блокирока этих страниц от индесации поисковых систем??? Совершенно верно! Указанные вами страницы - представляют из себя поисковый мусор, а не уникальный контент, которым является исключительно только полные новости, а всё остальное - предоставляется пользователям для удобства, в том числе статистика (сайта, пользователей и т.д., календарик (архив), и многое другое). Если интересуетесь СЕО, то должны это знать. В последнее время (где-то год) предлагают не закрывать подобные страницы, а уточнять какие из них являются главными через оператор "rel" (ноуфоллоу, ноуиндекс, каноникал и прочие), но это геморой, проще закрыть в роботсе и не париться. Цитата Ссылка на сообщение Поделиться на других сайтах
alex19841 0 Опубликовано: 4 августа 2010 Рассказать Опубликовано: 4 августа 2010 Автор robots.txt??? ваш выход в этой ситуации зто блокирока этих страниц от индесации поисковых систем??? Совершенно верно! Указанные вами страницы - представляют из себя поисковый мусор, а не уникальный контент, которым является исключительно только полные новости, а всё остальное - предоставляется пользователям для удобства, в том числе статистика (сайта, пользователей и т.д., календарик (архив), и многое другое). Если интересуетесь СЕО, то должны это знать. В последнее время (где-то год) предлагают не закрывать подобные страницы, а уточнять какие из них являются главными через оператор "rel" (ноуфоллоу, ноуиндекс, каноникал и прочие), но это геморой, проще закрыть в роботсе и не париться. чарез robots.txt закрывать так страници тоже геморой потомучто новая статья это новый день, месяц, год. Тоесть это все надо будет закрывать каждый раз, как будет выглядеть robots.txt через 5 лет если в день будет 5 новых статей. И потом как только статьи будут переходить на вторую страницу то переход на них (crawl) будет остановлен поисковыми системами. Даже если поисковик будет к ним переходить через линки категорий потомучто под категориями тоже будут генерироваться линки на вторые страници которые надо тоже будет блокировать через robots.txt таким образом старые статьи будут вылетать из индексации. Это все намного легче исправить добавив генерированием Page 2, Page 3... слов к title тагам. На счет duplicate content то первая страница отличается от второй разным контентом, rel="canonical" добовляется если две страници выдают абсолютно одинакой контент, пример page 1 и print весия страници page 1c Цитата Ссылка на сообщение Поделиться на других сайтах
Captain 623 Опубликовано: 4 августа 2010 Рассказать Опубликовано: 4 августа 2010 (изменено) Ни чего вылетать не будет, есть сайтмап. У людей десятки тысяч страниц и ни чего. Для того что в первом посте написали robots.txt будет такой: User-agent: * Disallow: /blog/page/ Disallow: /blog/2010/ Allow: / Host: www.ваш_сайт.ru Все Изменено 4 августа 2010 пользователем Captain Цитата Ссылка на сообщение Поделиться на других сайтах
alex19841 0 Опубликовано: 4 августа 2010 Рассказать Опубликовано: 4 августа 2010 (изменено) Автор насчет rel="canonical" и content="noindex, nofollow" на вторых и третьях... страницах вы правы! не плохо было бы еслиб DLE добовлял сам rel="canonical" и content="noindex, nofollow" на вторых и третьях... страницах к главной первой странице. Изменено 4 августа 2010 пользователем alex19841 Цитата Ссылка на сообщение Поделиться на других сайтах
Captain 623 Опубликовано: 4 августа 2010 Рассказать Опубликовано: 4 августа 2010 Ну да, и контент бы сам писал. Цитата Ссылка на сообщение Поделиться на других сайтах
zgr 72 Опубликовано: 4 августа 2010 Рассказать Опубликовано: 4 августа 2010 Ну да, и контент бы сам писал. ну. А если серьезно, то такая фича в ВП работает автоматом. В коде нужно дописать всего лишь строк 10-20, чтобы каноникал автоматом ставился, можно уж было бы реализовать и на уровне движка, а не доп. плагинов... Всё-таки 21-й век на дворе Цитата Ссылка на сообщение Поделиться на других сайтах
alex19841 0 Опубликовано: 5 августа 2010 Рассказать Опубликовано: 5 августа 2010 Автор закончил с nofollow, незнаю добалять ли nofollow к категориям? Цитата Ссылка на сообщение Поделиться на других сайтах
zgr 72 Опубликовано: 5 августа 2010 Рассказать Опубликовано: 5 августа 2010 Не нужно для тегов и категорий, а также страниц (на главной /page/2/, /page/3/, ...) - поисковики сами часть страниц выкинут, если посчитают это необходимым. А календарь - это поисковый мусор, он для удобства навигации пользователей, а не для поисковиков, а также некоторая техническая информация, например, список всех юзеров, подробное инфо о них, стата сайта и т.д. - это должны видеть только зарегистрированные пользователи, либо только зашедшие на сайт, а не поисковики Цитата Ссылка на сообщение Поделиться на других сайтах
alex19841 0 Опубликовано: 5 августа 2010 Рассказать Опубликовано: 5 августа 2010 Автор так если поисковиков пропускать на /page/2/, /page/3/, ... на главной то они начинают ругать что Duplicate meta descriptions and title tags Цитата Ссылка на сообщение Поделиться на других сайтах
Captain 623 Опубликовано: 5 августа 2010 Рассказать Опубликовано: 5 августа 2010 (изменено) alex19841, для начала прочитайте и выполните правила форума. Да и со своими вопросами вы не в ту ветку сунулись. Изменено 5 августа 2010 пользователем Captain Цитата Ссылка на сообщение Поделиться на других сайтах
freeprogs.kiev.ua 0 Опубликовано: 17 декабря 2010 Рассказать Опубликовано: 17 декабря 2010 (изменено) Посмотрите статью о robots.txt для DataLife Engine и Борьба с дублированием контента в DataLife Engine. Рассматриваются возможные решения дублирования контента в DataLife Engine. Изменено 17 декабря 2010 пользователем Mr.Smith Цитата Ссылка на сообщение Поделиться на других сайтах
Рекомендованные сообщения
Присоединяйтесь к обсуждению
Вы можете опубликовать сообщение сейчас, а зарегистрироваться позже. Если у вас есть аккаунт, войдите в него для написания от своего имени.