moote
Клиенты-
Публикации
131 -
Зарегистрирован
-
Посещение
Репутация
0 ОбычныйО moote
-
Звание
Полноправный форумчанин
Посетители профиля
785 просмотров профиля
-
Расширение в браузере SiteAnalyzer ругается что на странице больше одного тега Title, причём на всех страницах. Не могу найти откуда он их нашёл, в head посмотрел там один тайтл. Подскажите как найти где ошибка. Подумал может само расширение врёт но при проверке любого сайта таких ошибок нет.
-
В Яндексе набралось 8100 внешних ссылок.
moote ответил в тему пользователя moote в DataLife Engine (Общие вопросы)
Ну вот картинки в любом случае было бы не плохо убрать, потому что они грузятся с сервера на котором сайт, и сколько они их ещё там наплодят, там в большинстве какие то блоги на поддоменах, в гугле я и так могу ссылки отклонить но картинки останутся, а на яндекс не то не другое. Я то могу все ссылки на картинки отсортировать но если будут ссылки с теми же адресами то они могут и в гугл и яндексе накрытся? -
В яндексе набралось 8100 внешних ссылок с 1000 сайтов. Среди них в большинстве на картинку и на посты, и это за два года. Думаю и это одна из причин падения позиций, как раз на эти два года. В гугл такого не наюлюдается есть что подчистить но там можно отклонить а в яндекс такого нету. Может в дле есть какой то метод закрыть доступ, хотя бы чтоб новые не появлялись, может плагин какой есть? Как с этим боротся может у кого была схожая ситуация?
-
Да версия дремучая была 10.1 Понял спасибо. И подскажите карту хмл для гугла какую надо скармливать sitemap.xml или google_news.xml я обе добавил правильно? И ещё её раз скормил и всё или нужно обновлять её в админпанели?
-
Они есть если убрать плюс из урл. Может остались со старого движка, но последнее сканирование было 15 июня а движок я поменял в январе. Сайт долгое время был в полузаброшенном состоянии работал но за техничкой не было ни какого присмотра. Как долго гугл переваривает исправления и заменяет старые версии страниц на новые? Там многие страницы с разными ошибками сканировались ещё год и два назад.
-
Подниму тему. Что то неладное с тегами гугл все сраницы с тегом из двух, трёх слов site.ru/слово+слово/ где пробел добавил + и определил их как 404, от куда он их берёт, набралось уже более трёхсот штук.
-
Ясно спасибо!
-
Ни чё я не путаю, и в серч консоли есть и в поиске site:site.ru она есть. Может нужно убрать редирект с index.php или index.html на сайт, если стоит каноникал?
-
Спасибо!
-
Ну ни все такие умные как вы тут себя выставляете. А то что есть "Утилиты -> Заголовки, описания, метатеги" я и без вас знаю вы прочитайте сначало что я спросил. Вы так отвечаете как будто вас кто то заставляет, нет желания тогда лучше промолчите.
-
Подскажите как будет правильней сделать что бы в поиске не было страниц с index.php? Они там уже есть и что бы их убрать я если правильно понимаю нужно в метатег прописать ноиндкс, нофоллов но что бы это правило заработало нужно из роботс убрать запрет на сканирование. А можно сделать так что бы и в индекс они не попадали и в то же время робот по ним не ходил и зря ресурс на сканирование сайта не тратил?
-
Ясно.
-
Понял. Просто интернет заполонён советами редиректа со слешами во избежании дублей. Вас не затруднит посмотреть мой htaccess есть там таковые? Как его выложить не найду споллера.
-
То есть редирект не нужен вообще со страницы со слешем на страницу без слеша? Да есть такое, у меня ссылки на файлобменники стоя т с [leech=.
-
Спасибо! Ещё вопрос в краулере нашёл такую ссылку с двумя слешами site.ru/.../ на которую ссылается куча источников /site ru/index.php?do=go&url= с редиректом на главную. Это у меня где то напартачено?