|

История продвижения сайтов


История продвижения сайтов

История продвижения

История продвижения сайтов насчитывает уже более десятка лет. Вебмастера и контент-провайдеров начали продвижения сайтов в поисковых системах еще в в середине 90-х годов. Изначально все веб-мастерам было необходимо сделать так, чтобы поисковые машины вообще знали о них. Для этого надо было представить поисковику (добавить в поисковую систему) адрес этого сайта, или URL. Различные поисковики, которые посылали «паука» для сканирования сайта  извлекали ссылки на другие страницы.  Процесс индексации сайта включал в себя  работу поискового робота. Тот загружал страницы и сохранив их на собственном сервере поисковой машины. Где вторая программа, известная как индексатор, извлекала различную информацию о странице. Например, какие слова содержит страница и где они расположены. Определялся также вес этих конкретных слов (релевантность страницы поисковому запросу), и какие ссылки на странице имеется. Затем страница помещалась  в планировщик для сканирования на более поздний срок.

Владельцы сайтов начали признавать ценность того, что их сайты высоко ранжируются и видны в результатах поиска. По данным отраслевого аналитика Дэнни Салливан, фраза «поисковая оптимизация», вероятно, вошло в употребление в 1997 году. В то время поисковики придавали большое значение тексту на странице, ключевым словам в мета-тегах и прочим внутренним факторам, которыми владельцы сайтов могли легко манипулировать. Это привело к тому, что в выдаче многих поисковиков первые несколько страниц заняли не только толковые и интересные, но и мусорные сайты, что резко снизило качество работы поисковиков. Опираясь только на такие факторы, как плотность ключевых слов, которые были исключительно в рамках управления веб-мастерами, ранние поисковые системы пострадали от жестокой накрутки и манипуляции рейтингами. Чтобы обеспечить лучшие результаты для своих пользователей, поисковым системам пришлось приспосабливаться к тому, чтобы их страницы результатов поиска показывали наиболее релевантные результаты, а не страницы, нафаршированные многочисленные ключевыми словами с помощью недобросовестных веб-мастеров.
Так как успех и популярность поисковой системы определяется ее способностью выдавать наиболее релевантные результаты для любого поиска, то поисковые системы ответили на поисковый спам разработкой более сложных алгоритмов ранжирования.
Ранжирование — определение порядка выдачи сайтов согласно релевантности (соответствию) поисковому запросу, если, конечно, речь идет о сайтах.
Ранжирование – это процесс, результат которого пользователь видит, получая ответ поисковой системы на свой вопрос. Поисковик получает и обрабатывает запрос, сортирует все имеющиеся в своей базе данные, то есть производит ранжирование, и выдает результат. Выдача, как известно, представляет собой страницу или несколько, где в определенном порядке расположены ссылки на сайты, отвечающие на запрос пользователя. Расположение всех сайтов в соответствующую цепочку и есть ранжирование.
В 1996 году Сергей Брин и Ларри Пейдж, тогда ещё аспиранты Стэнфордского университета, начали работу над исследовательским проектом BackRub — поисковой системой (информации в Интернет), использующую новую тогда идею о том, что веб-страница должна считаться тем «важнее», чем больше на неё ссылается других страниц, и чем более «важными» в свою очередь являются эти страницы. Через некоторое время BackRub была переименована в Google. Первая статья с описанием применяющегося в ней алгоритма ранжирования, названного PageRank, появилась в начале 1998 года, за ней следом вышла и статья с описанием архитектуры самой поисковой системы. По качеству возвращаемых поисковых результатов их система значительно превосходила все существовавшие тогда поисковые системы, и Брин с Пейджем, осознав ее потенциал, основали в сентябре 1998 года компанию Google Inc.
В 2005 году Google начал персонализацию результатов поиска для каждого пользователя. В зависимости от истории предыдущих поисков в поисковой системе, Google индивидуализировал выдаваемые результаты, хотя — только зарегистрированным пользователям. В 2008 году Брюс Клей сказал, что обычная выдача — это «рейтинг мертвых» из-за персонализации поиска. Теперь стало якобы бессмысленно обсуждать, каков веб-сайт по рангу, потому что ранг (рейтинг) этого сайта потенциально может быть различным для каждого пользователя и каждого поиска.
В интервью в 2007 году представитель отдела качества поиска Google, заявил, что их поисковая система уже использует более 200 ранжирующих факторов, лишь одним из которых является PageRank.
В том же 2007 году Google объявил о кампании против платных ссылок, которые передают PageRank.
А 15 июня 2009 года Google раскрыл, что они приняли меры для смягчения последствий PageRank с использованием атрибута ссылки nofollow. Это значение атрибута rel тега «a» языка гипертекстовой разметки веб-страниц HTML (rel="nofollow").  Значение предназначено для поисковых систем: оно указывает им на то, что гиперссылку, задаваемую «a», не следует никаким образом учитывать при индексировании данной страницы.
Недавно, кстати, Matt Cutts, известный инженер-программист в Google, заявил, что Google больше не будет относиться к nofollowed ссылкам таким образом, чтобы предотвратить влияние SEO на PageRank.  В результате этого изменения использования атрибута rel="nofollow" приводит к уменьшению манипулированием PageRank. Для того чтобы избежать указанного выше, SEO-практики разработали альтернативные методы влияния, которые заменяют nofollowed теги запутанным Javascript. Кроме того, известны уже несколько решений, которые были предложены СОЕ-шниками и включают использование фреймов, флэш и javascript.
В декабре 2009 года Google также объявила о своем намерении использовать историю веб-поиска всех своих пользователей, чтобы влиять на результаты поиска.
Методы оптимизации
Методы оптимизации можно разделить на два класса, однако последние события в мире поисковых систем дают понять, что это разделение весьма условно — любая манипуляция параметрами сайта может быть расценена поисковиком как крайне нежелательное влияние на его результаты. Так, например, любая попытка манипулирования поисковыми результатами прямо запрещена поисковыми системами. «Белые» оптимизаторы и маркетологи пользуются рекомендациями Google и Яндекса по созданию «правильных» сайтов, не нарушая правил поисковых систем.
Белая оптимизация
Белая оптимизация — оптимизаторская работа над сайтом без применения официально запрещённых каждой поисковой системой методов раскрутки ресурса, т.е. без искусственного влияния на поисковые алгоритмы поисковиков. Это включает в себя работу над самим сайтом, а именно над внутренней навигацией и содержимым, и работу с внешней средой сайта, то есть продвижением оптимизируемого сайта путем обзоров, пресс-релизов, регистрации в социальных закладках, партнерских программ и т. п. с указанием ссылок на сайт. Следует отметить, что поисковики предупреждает о том, что если какой-либо метод оптимизации не является официально запрещенным, это не значит, что его можно применять.
Черная оптимизация
К чёрной оптимизации относятся все методы, которые в корне противоречат правилам поисковых систем и, как следствие, влекут за собой бан сайта. Среди них можно выделить следующие:
  • Использование дорвеев (страниц и ресурсов, созданных специально для роботов поисковых систем, зачастую с большим количеством ключевых слов на странице)
  • Использование других шаблонных приемов противоправного влияния на выдачу поисковика, например партнерские программы, в которых почти или совсем нет оригинального содержания. Если ваш сайт участвует в партнерской программе, убедитесь, что он добавляет новую уникальную информацию. Размещайте уникальное и релевантное содержание, чтобы у пользователя была причина посетить ваш сайт.
  • Клоакинг (пользователю показывается одна страница, легко читаемая, а поисковому роботу — другая, оптимизированная под какие-либо запросы),
  • Использование скрытого текста на страницах сайта, использование скрытых  ссылок.
  • Отправка в Google автоматических запросов.
  • Размещение страниц с нерелевантными ключевыми словами.
  • Создание страниц, субдоменов и доменов, почти одинаковых по содержанию.
  • Создание страниц для злонамеренных действий, например фишинга, установки вирусов, троянов и другого вредоносного ПО.
Выводы: делайте хорошие сайты — и будет вам счастье! :)
Подготовил: К_И_В, 2012
Опубликовал 14.10.2010. в разделе Продвижение сайта. Вы можете следить за ответами на эту запись через RSS 2.0. Вы можете оставить ответ или трекбек на эту запись

Написать ответ



*

Последние комментарии

Реклама