На главную

Библиотека Интернет Индустрии I2R.ru

Rambler's Top100

Малобюджетные сайты...

Продвижение веб-сайта...

Контент и авторское право...

Забобрить эту страницу! Забобрить! Блог Библиотека Сайтостроительства на toodoo
  Поиск:   
Рассылки для занятых...»
I2R » Сайтостроительство » Оптимизация сайтов

Домыслы на закате эпохи ссылок...

Автор: Алексей Говорухин
Источник: www.WebPromote.ru
- Создание сайтов, оптимизация и
продвижение в поисковых системах

А как все невинно начиналось! Каталог сайтов и поиск по нему … Сейчас уже трудно представить Яндекс, да и другие лидирующие поисковые системы в таком виде. Сейчас это настоящие поисковые монстры с огромными базами данных и сложнейшими алгоритмами ранжирования и что самое главное большими оборотами килобаксов.

Эволюция поисковых систем.

Поисковые системы в процессе своей эволюции пережили несколько этапов, которые можно выделить таким образом:

  • Эпоха зарождения
  • Эпоха контента
  • Эпоха ссылок

Эпоха зарождения

Посягательств на влияние позиций в выдаче не было, пожалуй, лишь во времена зарождения, когда относительно немногочисленные пользователи Интернета не знали что такое реклама в сети. Хорошие были времена! НО … появились баннеры, и понеслось - реферат, секс, порно … чего только не писали в столь значимом тогда метатеге keywords лишь бы завлечь на свои сайты любых посетителей. Как ответ поисковые системы стали анализировать текст сайта, этот переломный момент можно назвать переход в эпоху контента.

Эпоха контента

Интерес к Интернету рос все больше и больше, стало появляться больше сайтов, толчком тому стали бесплатные хостинги, любезно предоставившие свои услуги за показы сокровенных баннеров – двигателя эпохи контента. На баннерах было помешано все – вся сеть жила откруткой показов и поисковые системы это тоже не обошли стороной. В сети стало больше денег, а, следовательно, конкуренции. Появились первые профессиональные оптимизаторы, полностью зарабатывающие деньги на трафике, а не занимающиеся этим по совместительству с основной работой. Сначала это были просто оптимизаторы, это уже к концу эпохи контента с появлением массы дорвеев они стали окрашиваться в черных, серых и белых. Вот и прозвучало это грозное слово дорвеи причина краха эпохи контента. Вычислив формулу идеального сайта в сети стали огромными темпами разрастаться бессмысленные и бесполезные релевантные запросам сайты все более и более вытесняющие все остальные. Идея решения этой проблемы была позаимствована у уже к тому времени мирового лидера среди поисковых систем Google. Началась эпоха ссылок.

Эпоха ссылок

Впервые возникла идея спросить у народа, а что, по вашему мнению, хорошо, вернее какие сайты хорошие? Этим народом оказались вебмастеры. Ставя ссылки со своих сайтов на хорошие, увиденные и оцененные своими собственными глазами сайты сети они поднимали их вверх в выдаче. Идея была хороша, но в сети стало крутиться слишком много денег… Первую трещину эта система стала давать когда начался бум обмена ссылками. Особенно страшно это смотрелось когда менялись десятками баннеров с главной страницы, позже появились отдельные страницы куда весь этот мусор перенесли и многократно преумножили. Так или иначе народ уже протоптал «тропинки успеха» и успешно прогоняя по ним проект за проектом стал выводить их в свет. Дорвейная технология лишь в начале эпохи немного пострадала, но вскоре освоила новые методы воздействия на системы и начала развиваться, с еще большим размахом. Пришло время новой эпохи.

Технологии будущего - эпоха CTR

Что же еще можно сделать такого чего еще не сделали? Хочу изложить здесь оду идею, которая крутится у меня в голове. И так давайте посмотрим на Интернет глазами поисковой системы. Что надо поисковым системам? Как это ни странно, но то же самое что и нам всем – посетителей. Будет большой поток посетителей – будут больше продаваться рекламные площадки, будет больше прибыли от поисковика. А когда посетитель пойдет в ту или иную поисковую систему? Когда она будет находить то что ему нужно, а не всякий мусор. Так вот и мы подошли к главной части вопроса – что нужно посетителю? Поисковые системы пытаются это угадать уже долгие годы, анализируя контент, учитывая мнение вебмастеров (считай тех же разработчиков сети), а может все проще? Может об этом стоить спросить самих посетителей?

Третий кит

Сейчас практически все поисковые системы подсчитают кто когда и где кликнул на их сайтах. И что-то мне очень сильно кажется, что это не спроста. Представьте себе такую вещь, что поисковые системы наряду с коэффициентами соответствия контента и веса ссылочного ранжирования, так же при расчете веса сайта (вИЦ) будут учитывать и его CTR в поисковых системах. Будут просто подсчитывать сколько раз, был показан сайт, и на каких позициях, и сколько раз на него было совершено переходов (кликов). С точки зрения конкуренции это здоровая вещь, так как пользователю будет предложено 10 сайтов и естественно он выберет наилучший для себя путем клика на него. Собрав такую статистику и подкорректировав данные (у сайта на первой позиции больше шансы, что на него кликнут, следовательно, его CTR следует немного занизить исходя из коэффициентов кликабельности по позициям) можно получить «третьего кита», на котором будет держаться поиск. Что же будет давать этот кит? Этот кит будет давать коэффициент популярности сайта у пользователей. В результате чего пользователи будут сами корректировать выдачу – сайты которые им нравятся поднимутся вверх, а сайты которые им не нравятся упадут. Получится выдача, которая нравится пользователю – не это ли залог успеха поисковой системы?

Накрутим?

Естественно первые мысли – так это же легко накрутить! А нет – не так уж и легко. Можно сделать не всеобщий опрос всех пользователей, а в случайное время по случайным запросам в случайный промежуток времени и с условием один ip адрес голосует только один раз, скажем в неделю, месяц и т.д. То есть рандомом выбралось время и в этот промежуток времени происходит так сказать соцопрос – Вы за кого? Данной информации будет достаточно для вычисления средней статистики. И так периодически через определенное время. Вероятность накрутки ничтожно мала. Самые активные ip адреса можно поместить в черный список и больше их мнение не спрашивать. В общем предотвратить накрутку здесь вполне можно.

А как же мы?

А как это повлияет на оптимизаторов? На мой взгляд, будет еще большое расслоение между былыми методами оптимизации и черными. Те кто оптимизирует по белому – делает сайт правильным с точки зрения поисковой системы и удобным и привлекательным для пользователя только выиграет так как такие сайты нравятся пользователю и на них будут активно кликать, а вот черные или неоптимизированные сайты, без красивых заголовков и снипптов явно пострадают. Дорвеям тоже придется не сладко – красивый заголовок то можно придумать, а вот как из бредятины сделать красивый сниппет?

Исходя из логики все работает – значит скоро будет, грядут перемены, смена эпохи близка ...

Автор: Алексей Говорухин
Источник: www.WebPromote.ru - Создание сайтов, оптимизация и продвижение в поисковых системах

Рассылки Subscribe.ru:

Библиотека сайтостроительства - новости, статьи, обзоры
Дискуссионный лист для web-разработчиков
Подписка на MailList.Ru
Автор: NunDesign
Другие разделы
Оптимизация сайтов
Web-студии
» Новое в разделе
Web-дизайн
Web-программирование
Интернет-реклама
Раскрутка сайта
Web-графика
Flash
Adobe Photoshop
Рассылка
Инструменты вебмастера
Контент для сайта
HTML/DHTML
Управление web-проектами
CSS
I2R-Журналы
I2R Business
I2R Web Creation
I2R Computer
рассылки библиотеки +
И2Р Программы
Всё о Windows
Программирование
Софт
Мир Linux
Галерея Попова
Каталог I2R
Партнеры
Amicus Studio
NunDesign
Горящие путевки, идеи путешествийMegaTIS.Ru

2000-2008 г.   
Все авторские права соблюдены.
Rambler's Top100