Гугл не кушает страницы
  • Доброго времени суток. Проблема такая, может кто сталкивался- Есть сайт ручной, часто обновляемый, уникальный, СДЛ, по всем интересным запросам в топе (по ВЧ тоже стабильно в Топ 10. Добавил две недели назад страницы новые, сайтмапу переделал, - Гугл не включает их в индекс принципиально. В чём может быть дело??? Яша после тряски со Снежком кушает странички снова стабильно - добавляет и добавляет, Гугл же спит, причём робот заходит постоянно - ошибки некоторые находит, потом убирает, всякие там предложения по улучшению сайта подкидывает, а вот новые страницы в упор не замечает. Раньше кстати быстрее Яши находил, как только сайтмапу обновишь. Страники на втором уровне вложенности, в сайте вообще их всего около 500. Просто на новых страничках рекламка всякая, под НЧ и СЧ заточены, вот заказчики и нервничают немножко, другие подобные странички в топе уже, а этих воще нету.
  • Кофеин - не кофеин, а могу заверить, что у Гугла по-прежнему отличный аппетит, прекрасно кушает. Но не всё.

    ТС, прежде чем бежать на форумы с вопросами такого рода, нужно смотреть в логи и выяснять:
    - ходит ли гуглбот по сайту, насколько часто
    - какие страницы сканирует
    - какие отклики (коды статуса HTTP) получает
    - много ли запрашивает несуществующих страниц
    - есть ли на сайте дубликаты (одна и та же страница с разной адресацией)

    Все перечисленное может влиять на индексирование сайта. Вплоть до полной остановки, если будет море дублей или битых ссылок. Кстати, неуникальный контент на новых страницах стал проходить в индекс намного хуже.
  • В последнее время у многих такое наблюдается.

    Есть такой момент. Гугл стал тормозить. Я говорю о новых сайтах.
    Вот сейчас посмотрел в инструментах вебмастеров один двухмесячный ресурс.
    С конца октября статистика сканирования идет на спад, хотя сайт регулярно пополняется.
    Ссылки на сайт показывает "нехотя". Вижу я в поиске, что проиндексировал он страницы с этими ссылками, а в инструментах их нет.
    Ну к чему такая байда? Я конечно, понимаю, что ложки не существует, а существует большая ложь, но ведь "ссылки на ваш сайт" - это не инструмент, показывающий значимые ссылки (хотя все доноры качественные).
    Это инструмент, просто показывающий ссылки на мой сайт!
    А он не показывает. Выходит, тормозит система.

    Ошибок сканирования нет, дублей нет.
    sitemap прочитал, проиндексировал не все - как будто ложку до рта дотянуть не может.
    И я знаю, что проиндексирует - через неделю или две. А яндекс уже все проиндексировал.

    Вот экспериментальную функцию - эффективность Гугл старательно отслеживает
    по его мнению, сайт быстрее, чем 91 % сайтов. Спасибо и на этом.
  • Кофеин - не кофеин, а могу заверить, что у Гугла по-прежнему отличный аппетит, прекрасно кушает. Но не всё.

    ТС, прежде чем бежать на форумы с вопросами такого рода, нужно смотреть в логи и выяснять:
    - ходит ли гуглбот по сайту, насколько часто
    - какие страницы сканирует
    - какие отклики (коды статуса HTTP) получает
    - много ли запрашивает несуществующих страниц
    - есть ли на сайте дубликаты (одна и та же страница с разной адресацией)

    Все перечисленное может влиять на индексирование сайта. Вплоть до полной остановки, если будет море дублей или битых ссылок. Кстати, неуникальный контент на новых страницах стал проходить в индекс намного хуже.

    гуглбот ходит через день, через два - я ж писал - изменения в Г-вебмастер происходят
    старые страницы сканирует - раз изменения есть
    ошибок, ненайденных страниц не находит - по крайней мере сам гугля так пишет
    кстати эффективность сайта - более чем у 74%
    несуществующих страниц ваще нет - такая байда в Яше бывает, но быстро исчезает, у гугла ваще никаких претензий
    на сайте ни одного дубликата- к сожалению много страниц с фото на отдельных страницах, но тайтлы и дескрипшнс разные, на сопли проверял - нормально, не хуже всех, кстати за счёт внутренней линковки только ПР-3.
    дублей, ссылок битых вообще нету, сам гугл пишет - ошибок нет, нету даже одинаковых дескрипшнс или тайтлов, неуникального контента вообще нету, все тексты из головы и только о своём - без упоминаний известных названий фирм и т.д. и т.п. И ещё, писал же что по запросам в топе, значит нравится гуглу мой сайт, урл писать не буду, просто если у кого такая же фигня есть или была - пишите.
  • Еще раз повторю: совет заключался в словах "смотрите в логи".

    Возможных причин медленного попадания в индекс новых страниц намного больше, чем можно перечислить навскидку. И видны они в основном в логах, и очень редко в WMT. Если думаете, что кто-то может что-то сказать – вот так, не видя сайта, логов, WMT – значит, Вы верите в волшебников. :) Ищите волшебника...
  • Еще раз повторю: совет заключался в словах "смотрите в логи".

    Возможных причин медленного попадания в индекс новых страниц намного больше, чем можно перечислить навскидку. И видны они в основном в логах, и очень редко в WMT. Если думаете, что кто-то может что-то сказать – вот так, не видя сайта, логов, WMT – значит, Вы верите в волшебников. :) Ищите волшебника...

    А как объяснить логами то, что страницы сайтов-доноров проиндексированы (и даже эффект есть по позициям, пусть и не очень сильный), а в инструментах внешних ссылок нет? Если это не тормоза, то какой-то мухлеж.

  • А как объяснить логами то, что страницы сайтов-доноров проиндексированы (и даже эффект есть по позициям, пусть и не очень сильный), а в инструментах внешних ссылок нет? Если это не тормоза, то какой-то мухлеж.

    Поняли что написали? :)
    Я вот не понял абсолютно. "В огороде бузина, а в Киеве дядька".

    То, что и в WMT, и по запросу link: Google выдает только малую часть известных ему ссылок – ни для кого не секрет и к проблемам с индексацией никакого отношения не имеет.

    А "интимные подробности" взаимоотношений бота и сайта видны в логах, частенько там удается найти совершенно неожиданные косяки.
  • Я вот не понял абсолютно. "В огороде бузина, а в Киеве дядька".

    А я и имел в виду, что в огороде бузина, а в Киеве дядька. И вы это поняли, только на уровне подсознания.
    Не все ответы можно найти в логах - вот суть моего ответа.
    У меня, например, на все обращения бот получает ответ 200. Дублей нет, контент уник.
    Если на то пошло, мне и не нужна сверхбыстрая индексация, но совершенно не нравится перспектива, что гугл отдохнет на белом сайте, а потом
    захапает весь контент со сплогов и "дневников". Но это тема отдельного разговора.

    То, что и в WMT, и по запросу link: Google выдает только малую часть известных ему ссылок – ни для кого не секрет и к проблемам с индексацией никакого отношения не имеет.

    Не секрет, но я говорю, что в случае WMT - это неправильно. Вы же считаете допустимым журить яндекс?
    Инструмент называется "ссылки на ваш сайт", и должен показывать ссылки на сайт. Все просто. Если он этого не делает, значит инструмент работает неправильно.
    Есть с чем сравнивать - в вебмастере яндекса показываются все ссылки с проиндексированных страниц. Еще раз повторю, речь не о значимости ссылок.
  • А я и имел в виду, что в огороде бузина, а в Киеве дядька. И вы это поняли, только на уровне подсознания.
    Не все ответы можно найти в логах - вот суть моего ответа.

    Не все. Но тем не менее, находятся интересные ситуации с дублями, возвратом к удаленным страницам, косякам с переадресацией... Примеры приводить не обязательно, к данному топику они не относятся.

    Во всяком случае, логи под контролем сервера и в них отражено все. А WMT под контролем Гугла и информация там бывает неполной. Или запоздалой. Что тоже не секрет. :) Понаблюдайте по любому новому сайту, с какой скоростью там "проявляются" внутренние ссылки, к примеру. Весь сайт уже в индексе, а список внутренних ссылок еще месяц-два остается неполным.

    Не секрет, но я говорю, что в случае WMT - это неправильно. Вы же считаете допустимым журить яндекс?
    Инструмент называется "ссылки на ваш сайт", и должен показывать ссылки на сайт. Все просто. Если он этого не делает, значит инструмент работает неправильно.
    Есть с чем сравнивать - в вебмастере яндекса показываются все ссылки с проиндексированных страниц. Еще раз повторю, речь не о значимости ссылок.

    Гугл я тоже считаю допустимым журить – именно за это. Что и делаю прямо на его форуме поддержки вебмастеров. Но пока от всех этих выступлений ситуация не сдвинулась с мертвой точки, что об этом говорить? Будем опираться на факты.

    Что касается Яндекса – он тоже показывает не все ссылки. Хотя и стал показывать больше.

Привет, незнакомец!

Похоже, Вы новенький! Чтобы начать обсуждение, кликните на одну из кнопок ниже ;)

Войти с помощью OpenID

Категории

В этой теме: