На главную

Библиотека Интернет Индустрии I2R.ru

Rambler's Top100

Малобюджетные сайты...

Продвижение веб-сайта...

Контент и авторское право...

Забобрить эту страницу! Забобрить! Блог Библиотека Сайтостроительства на toodoo
  Поиск:   
Рассылки для занятых...»
I2R » Сайтостроительство » Web-дизайн

Редирект с точки зрения пользователей и с точки зрения поисковиков

В предыдущем материале, рассуждая о том, как обеспечить внешние ссылки на сайт, я высказал мысль, что при перемещении страниц нужно делать редирект на их новое месторасположение. Потом я посулился "как-нибудь в другой раз" рассказать подробнее об URL-ах с точки зрения юзабилити. Однако в письмах-отзывах на тот выпуск уж очень часто повторялись вопросы про редирект. Поэтому, пока проблема актуальна, я привожу типичное письмо и отвечаю сразу всем в отдельном выпуске рассылки.

NS> Здравствуйте Максим,
NS> Хотела Вас спросить, Вы рекомендуете, при перемещении
NS> страниц делать редирект на новые страницы.
NS> Правильно ли я поняла, что Вы имеете в виду,
NS> делать это внутри сайта? Многие поисковики
NS> очень плохо
NS> относятся к редиректу.
NS> С уважением,
NS> N. S.

Давайте прежде всего разберемся с понятием "редирект". Под "редиректом" в предыдущем материале я подразумевал любой (!) способ перемещения пользователя с неактуальной страницы на новую.

Для этого обычно используют 3 основных способа:

  1. Просто размещают ссылку на новую страницу. Проще говоря: "Страница переехала, щелкайте сюда!"
  2. Делают пустую страницу (ну, или с фразой "страница была перемещена"), на которой размещают JavaScript, который перемещает пользователя на другую страницу. Или используют мета-тег REFRESH, который делает то же самое.
  3. Используют какую-либо серверную фишку, например, в файле .htaccess пишут команду redirect, которая перенаправляет посетителя на другую страницу.

Посмотрим на эти способы глазами пользователя.

1-й способ - 100% надежный, но требует от посетителей лишнего шага, который они, кстати, могут и не захотеть сделать.

При втором способе от пользователя никаких действий не требуется, но он может не сработать в браузерах без поддержки JavaScript или Refresh. (что маловероятно).

Третий способ имеет оба преимущества первых двух: он не требует от пользователя лишних действий и сработает всегда, вне зависимости от того, каким браузером просматриваться страница. Более того, он предоставляет одну очень интересную возможность: он позволяет передать по протоколу HTTP различные типы сообщений переадресации - код 301 и код 302.

Код 301 означает, что страница перемещена на постоянное место. Современные браузеры АВТОМАТИЧЕСКИ ИЗМЕНЯТ СОДЕРЖИМОЕ ЗАКЛАДОК, если получат такое сообщение. Т.е. закладка будет установлена на новый URL!

А код 302 означает, что страница перемещена временно и можно продолжать пользоваться старым адресом - страница все равно рано или поздно вернется на старое место.

А теперь перейдем к более интересному и сложному вопросу:

Как реагируют поисковики на эти типы редиректа

В первом случае все просто. Предположим, страница была перемещена с адреса http://www.домен.ru/старый.урл на http://www.домен/ru/новый.урл и файл старый.урл теперь содержит только ссылку на новый.урл.

До тех пор, пока поисковик в очередной раз не проиндексирует страницу старый.урл, в результатах поиска он будет показывать ее описание, которое на самом деле теперь является описанием страницы новый.урл. В этом нет ничего страшного, поскольку посетитель, кликнув по этому описанию и попав на страницу старый.урл со ссылкой "страница перемещена сюда", скорее всего щелкнет по ссылке и попадет страницу с нужной ему информацией.

Через некоторое время поисковый робот, обходя Интернет, зайдет на страницу старый.урл и перейдет по этой ссылке на страницу новый.урл и внесет ее в индекс и все заработает по старому.

Перейдем ко второму случаю.

А вот тут уже все не так однозначно. И причина этой неоднозначности в том, что мы не можем абсолютно точно знать алгоритм работы поисковых машин. Кто говорит - JavaScript они "не любят", кто говорит, что им "все равно". Тоже самое и с мета-тегом "refresh" и т. д.

Я не могу точно сказать, как прореагирует тот или иной поисковик на ту или иную строчку кода. Я могу лишь делится с Вам опытом, приобретенным во время работы по поисковой оптимизации (которая, кстати, является на данный момент основным направлением нашей деятельности).

Не стоит надеется на то, что поисковики выполнят JavaScript, но не стоит на это и рассчитывать. :) В нашем контексте это означает, что если Вы делаете редирект через JavaScript (или мета-тег refresh), то у поисковика могут возникнуть проблемы с индексацией новой странички в случае, если на нее нет других внешних ссылок.

Подобная проблема решается легко. Можно на странице с JavaScript-ом в теле страницы сделать обычную ссылку "страница перемещена". Или на главную страницу сайта вставить прозрачный пиксель, ссылающийся на новую страницу.

Теперь рассмотрим третий случай.

Преимущества передачи кода переадресации работает и здесь: на передачу по HTTP кода 301 хорошая поисковая система должна прореагировать следующим образом: она должна удалить старый URL из индекса и заменить его на новый. А теперь ответ на Ваше замечание о том, что поисковики плохо относятся к редиректу.

На конференции ISDEF'2002 (www.isdef.org) довелось мне слушать доклад Ильи Сегаловича (Яндекс) "Современные поисковые технологии как средство доставки информации". После выступления докладчику задавали множество каверзных вопросов: "А как Яндекс относится с дорвэям?", "А как к редиректу?", "А к динамическим страницам?" и т. д.

Илья послушал все эти вопросы, помолчал и сказал:

"Мы просто не любим, когда нас обманывают"

Я считаю, что под этим ответом подпишутся все создатели поисковых машин. (если систему не обманывают, а она выдает нерелевантные результаты - это уже проблема системы, давайте такие даже не рассматривать)

Редирект, помимо благих целей, может использоваться и в т. н. "page cloaking". Page cloaking - это выдача разных страниц при разных обстоятельствах. Эта технология используется для того, чтобы показывать поисковикам "заточенные" под них страницы, а пользователям показывать страницы с совсем другим содержанием. Делается это двумя способами - или используется переменная User-Agent (надо знать имя поискового робота), или IP-адресов (надо иметь базу данных IP-адресов поисковиков).

Page cloaking - это прямой обман поисковых машин, иными словами - злостный спам. Это именно то, к чему поисковики относятся очень плохо. Представьте, как должен себя чувствовать робот, когда он заходит с одного IP на страничку и видит, что она "for adults only", а заходит с другого - а там реклама зубных щеток. Я бы чувствовал себя плохо :)

Итак, подведем резюме. Поддерживая старые URL, помните и о пользователях, и о поисковиках. И старайтесь обманывать поисковые системы пореже. :)

До скорого!

Максим Корниенко
MAXiMaster.ru -
организация деятельности Вашей компании в сети Интернет,
автоматизация бизнес-процессов

Рассылки Subscribe.ru:

Библиотека сайтостроительства - новости, статьи, обзоры
Дискуссионный лист для web-разработчиков
Подписка на MailList.Ru
Автор: NunDesign
Другие разделы
Оптимизация сайтов
Web-студии
» Новое в разделе
Web-дизайн
Web-программирование
Интернет-реклама
Раскрутка сайта
Web-графика
Flash
Adobe Photoshop
Рассылка
Инструменты вебмастера
Контент для сайта
HTML/DHTML
Управление web-проектами
CSS
I2R-Журналы
I2R Business
I2R Web Creation
I2R Computer
рассылки библиотеки +
И2Р Программы
Всё о Windows
Программирование
Софт
Мир Linux
Галерея Попова
Каталог I2R
Партнеры
Amicus Studio
NunDesign
Горящие путевки, идеи путешествийMegaTIS.Ru

2000-2008 г.   
Все авторские права соблюдены.
Rambler's Top100