Подскажите по роботсам\хтакцессу
  • Есть сайт abc.ru
    На главной выводится статичный текст, а под ним тизеры статей.

    В конце страницы пейджер, соотв. статичный текст сверху дублируется на всех страницах.

    структура ссылок:
    abc.ru
    abc.ru/?page=1
    abc.ru/?page=2
    abc.ru/?page=3

    итд.

    вопрос - как бы фильтрануть все дубли главной страницы?
    чего-то не могу придумать правильный синтаксис для роботсов.
  • Фильтрануть нужно все c ?page=1 
  • Я знаю. Я спросил - как?
  • Я не знаю. Это был вопрос.

    Как я понимаю, страницы по этим адресам должны все равно выдаваться сервером, но не должны индексриоваться?
    Управлять индексацией можно через robots.txt
    Добавьте строку:
    Clean-param: page
  • этого достаточно?
    или еще зафильтровать в роботах саму page
  • Достаточно. За 2 недели эти страницы уйдут из индекса
  • спасибо, попробую.

Привет, незнакомец!

Похоже, Вы новенький! Чтобы начать обсуждение, кликните на одну из кнопок ниже ;)

Войти с помощью OpenID

Категории

В этой теме: