ТаблицейБлоками.

Приложение Д: Клоакинг Doorways дорвей клоачные скрипты

Последняя модификация: 10.08.2014 г

Страница загружена с адреса: http://webdesign.site3k.ru/conjuncture/append/d/cloak.html

Моя студия веб-дизайна

Клоакинг – технология «Входных дверей» (Doorways).

  1. Понятия Клоакинга и Входных дверей (Doorways)
  2. Устройство дорвеев (Doorways)
  3. Заключение

Сразу оговорюсь – здесь не будут приводиться клоачные скрипты, так как если благодаря данному материалу какие-то из них приобретут большую популярность, все поисковики включат в своих роботов функции по их отлову и, содержащие их страницы вскоре будут исключены из поисковых баз, а включение этих скриптов в страницы потеряет всякий смысл (впрочем, кое-что, я все таки привел, получив «добро» поисковых систем). Расскажу только о том, что это такое, для чего и как может использоваться. Если же, после прочтения материала, вы захотите иметь эти скрипты, вам придется изобрести их самостоятельно. Комментировать ваши скрипты я тоже не стану, так что не высылайте их мне по почте. Если хотите обсудить, обращайтесь на www.searchengines.ru. Этот сайт целиком посвящен подобным вопросам и ваши скрипты будут проанализированы на его форуме (но не ищите там готовых скриптов, так как они могут там размещаться только как материал для обсуждения и не слишком откровенничайте: супермодератором форума является Александр Садовский – менеджер поисковой системы Яндекс).

Понятия Клоакинга и Входных дверей (Doorways)

Во-первых, клоакинг и дорвеи – вещи различные, но, настолько взаимосвязанные, что в разговоре о них не имеет смысла отделять одно от другого.

Клоакинг от англ. to cloak (скрывать, маскировать) – это подмена одних страниц другими, в зависимости от посетителя. Например, при попадании посетителя на сайт, скриптом главной страницы определяется используемый им браузер, после чего все динамические ссылки страницы меняют свое значение так, чтобы указывать на каталог сайта, оптимизированный, именно под этот браузер. Например:

<A href= ”javascript:window.location = navigator.appName + ‘/MyLinkFile.html’;”>  Перейти </A>

Подобные «оптимизации» можно устраивать не только для наилучшего отображения страниц в браузере, но и для «наилучшей индексации» в поисковых системах, показывая поисковым роботам одни страницы, а живым посетителям совершенно другие. Для определения типа посетителя используется поле USER_AGENT http-запроса или IP-адрес (адреса поисковиков приходится знать заранее и постоянно обновлять). Многие считают определение поисковиков по их адресам самым надежным способом, но мне это кажется тотальным заблуждением: Этот адрес постоянно меняется, а прозевать его изменение – значит рассекретить свою клоачную страницу, после чего она исключается из поисковой базы и, создаваемый ей вес автоматически исчезнет. Придется делать новую страницу, причем, как можно раньше и, ждать почти месяц, пока она вновь поднимет вес сайта. Но сначала обнаружить рассекреченность страницы!

Использование USER_AGENT, считаясь менее надежным, на самом деле таковым вряд ли является. Если роботы начнут выдавать себя за нормальный браузер, они не смогут корректно обрабатывать файлы robot.txt – а это не выгодно ни посетителям, ни владельцам серверов, ни владельцам сайтов (больший трафик на линии, увеличение времени индексации, уменьшение скорости получения страниц с сайтов) – никому. Конечно, возможен вариант, когда при чтении robot.txt поисковик честно сообщает свое имя, а при чтении остальной информации, выдает себя за IE или Mozillo – я бы именно так и делал, но, по каким-то, никому не известным причинам, поисковые роботы самоуверенны и откровенны до безобразия и, по уверению людей, использующих USER_AGENT, он работает безупречно.

Дорвей (Doorway) – входная дверь – страница максимально настроенная на соответствие поисковому запросу посетителя поисковой системы с той целью, чтобы оказаться первой в результатах поиска. Алчность многих сайтостроителей привела к такой ситуации что, не используя дорвеи, невозможно даже надеяться на то, что ваша страница, как бы точно она не отражала требуемый посетителю контекст, окажется в результатах поиска, хотябы, на сотой странице. Ведь ваша ценнейшая страница, посвященная кактусам, может упоминать слово кактус всего пару раз, а в остальных случаях, говорить либо о необходимой им почве, либо об условиях роста, либо использовать личные местоимения (их, они и т. д.), либо обходится выражениями типа «эти растения»… Да и называться страница может «Наши шипованные питомцы», в то время как на тысячах чужих дорвеев, под названием «Кактус, кактус, и еще раз, кактус» слово «кактус» будет упоминаться по сотне раз, да еще и в заголовках. Эти страницы вообще могут состоять из одних слов «кактус»! Тупой робот поисковой системы, естественно, оценит, какое место этому слову отводится на этих страницах и сочтет их гораздо точнее соответствующими поисковому запросу (а вашу, содержащую реальную информацию, неизбежно сочтет третьесортной).

Конечно, такие страницы не предназначены для живого читателя. Тут-то и применяются клоачные технологии. Поэтому, дорвеи и клоакинг – это темы, раздельное рассмотрение которых уместно только для уточнения их отдельных аспектов (или в очень коротких статьях, принятых практически на всех сайтах), но не для данного материала, предназначенного для широкого освещения этого вопроса (и тем более не для этого сайта, назначение которого – глобальные исследования с последующим изложением всех полученных данных в рамках одной Web-страницы).

Устройство дорвеев (Doorways)

В зависимости от того, будет ли отображаться Doorway посетителю или нет, дорвеи делятся на 2 типа: отображаемые и неотображаемые Doorways.

Отображаемые Doorways.

Для того чтобы оптимизировать страницу для поисковых систем часто используется следующие честные приемы:

  1. Нарушение литературной стилистики: вместо личных и безличных местоимений в тексте однообразно повторяются ключевые слова и словосочетания, ухудшая его читаемость, но, не затрудняя понимание содержимого. Это вполне честный способ повышения релевантности (соответствия запросу) страницы и может быть рекомендован к использованию. Важно лишь то, насколько автор согласен ущемить свои литературные способности. Если они равны нолю и, человек, и без всяких Doorways, рассказывая о себе, в каждом предложении пишет «я», то можно считать что, у него настоящий талант создания Doorways.
  2. Наполнение ключевыми словами атрибутов «title» и «alt» в гиперссылках и рисунках. Это не менее честный способ, если, конечно, гиперссылки и рисунки каким-то образом связаны с ключевыми словами. Перед предыдущим он имеет огромное преимущество – содержимое этих атрибутов не смешивается с остальным текстом и не портит литературного стиля.
  3. Помещение ключевых слов и словосочетаний в текст гиперссылки. Способ – честнее некуда. Если вместо
    «Примеры Doorways смотрите <a href=’MySample.html’>Здесь</a>», 
    написать
    «Здесь вы можете просмотреть примеры  <a href=’MySample.html’>Doorways</a>», 
    слово «Doorways» приобретет больший вес и релевантность страницы будет выше, без какого либо обмана посетителя или поисковой системы.
  4. Выделение ключевых слов и словосочетаний с помощью тегов b, strong, i, em, и других аналогичных тегов. Выделенное слово считается более важным, чем остальной текст, поэтому, страница с выделенными ключевыми словами и словосочетаниями имеет большую релевантность, чем та же страница без выделений. Важно лишь определится: желаете вы выделять слова там, где это действительно нужно по смыслу, или же вы готовы выделить все ключевые слова и словосочетания только в силу того, что они ключевые, чтобы не проиграть конкурентную борьбу с другими подобными страницами. Учтите: там, где вы захотите получить идеальный литературный стиль, достойный пера лучших мастеров, другие могут предпочесть посещаемость.
  5. Увеличение числа заголовков 1 – 4 уровня и включения в них ключевых слов и словосочетаний. Сам по себе способ честный, хотя слишком жесткое структурирование иногда может оказаться не слишком удачным литературным решением. В частности, если каждый абзац предварить заголовком, читать будет крайне не удобно.
  6. Включение ключевых слов и словосочетаний в теги META name="keywords", META name="description" и title заголовочной части (head) веб-страницы. Отсутствие ключевых слов в этих тегах было бы просто необъяснимо. Ведь они ни как не испортили бы остального текста, но, зато, вкратце, показали бы, чему он посвящен.

Нечестные приемы, используемые для поднятия релевантности страницы:

  1. Обезличивание тегов выделения и заголовков 1 – 4 уровня с помощью  CSS, например:
    h1, h2, h3, h4 {font-size:12pt; font-weight:normal}
    b, strong, i, em, u {font-weight:normal; text-decoration:none; font-style:normal}
    
    с последующим оформлением всего, или почти всего, текста этими стилями, пользуясь тем что, поисковые машины не занимаются интерпретацией CSS. Многие дизайнеры считают это честным способом, но только потому, что, постоянно его применяя, не хотят признать себя мошенниками. Метод не рекомендуется по 2 причинам:
    1. На месте поисковиков я бы включил интерпретацию CSS и, возможно, они со временем так и сделают (или уже сделали), не предупреждая об этом дизайнеров.
    2. Пользователь может настроить браузер на использование собственных стилей (в Опере это называется режимом пользователя) – что, вообще, является не лучшей идеей – и страницы с переопределенными стилями его оттолкнут своим отвратительным внешним видом.
  2. Написание большого количества ключевых слов цветом фона или близким к нему, или помещение их в невидимый слой (скрытый с помощью z-index, visibility:hidden, display:none, установкой стиля цвета шрифта аналогичной цвету фона). Метод не рекомендуется по тем же причинам, что и первый. К тому же добавляется вероятность исключения страницы или даже ВСЕГО САЙТА из поисковой базы, в том случае, если поисковые службы обнаружат применение данного метода.
  3. Динамическое создание страниц с помощью любого скрипта, при котором страница содержит только ключевые слова, а весь остальной текст включается по скрипту: если страницу запросил робот – на ней очень высока плотность ключевых слов, поскольку робот не будет обрабатывать скрипт и включать остальное содержимое, а значит, высока и релевантность; если человек – он получает весь текст. Тут главное не перегнуть палку: если ключевое слово занимает более 10% видимого роботу текста, ее начинает исследовать модератор (редактор). Метод нельзя назвать однозначно жульническим, поскольку, он облегчает работу роботов, позволяя не закачивать и не индексировать не существенный для поисковой системы текст и, фактически, никого не обманывает. Однако не рекомендуется, поскольку текстовые браузеры так же не интерпретируют скрипты и, пользующиеся ими посетители ничего не увидят. К тому же, он замедляет загрузку страницы в нормальный браузер.
  4. Динамическое комментирование, с помощью любого скрипта, блоков, не должных отображаться живым посетителям, в результате которого робот увидит текст из ключевых слов, а посетитель – нет. Метод похож на предыдущий, а так же на сокрытие текста с помощью visibility:hidden. В отличие от предыдущего – однозначно нечестный, поскольку посетитель не увидит то, что видит робот. Будет ли выявлено мошенничество и приведет ли оно к исключению страницы из поисковой системы – не известно, наверное, никому. Вопрос «можно ли его рекомендовать для повышения релевантности страницы» – остается без ответа.
  5. Динамическое создание страниц, в зависимости от USER_AGENT – чистейший клоакинг. Например, клоакинг с помощью Server Side Includes (SSI):
    <html>
    <!--#if expr="$HTTP_USER_AGENT=/Mozilla/" -->
    <!--#include virtual="для_браузеров.txt"-->
    <!--#else -->
    <!--#include virtual="для_поисковиков.txt"-->
    <!--#endif -->
    </html>
    

    Боже, надоумь поисковые системы прикидываться Internet Explorer-ом. Неужели нам мало теневой экономики, так у нас будет еще и теневой Интернет?

    Yandex, Апорт и Punto надеются уберечь пользователей своих поисковых систем от такого надувательства с помощью учета ссылочной популярности страницы – если на страницу ссылаются, то она важна, независимо от примененного клоакинга, если нет – ее позиция в результатах поиска окажется гораздо ниже (но ведь все-таки выше чем без клоакинга!). Рамблер уповает на посещаемость – если страница не интересна, то на нее второй раз не придут, посещаемость будет ниже, а значит и позиция в результатах поиска (но, опять же, выше чем без клоакинга!). И, конечно же, все применяют карательные меры, выявляя спам... Но это не уловимо, никто же не запретит определять тип браузера!

Неотображаемые Doorways.

Создание неотображаемых релевантных страниц проще, чем создание отображаемых. Достаточно чтобы текст страницы состоял из ключевых слов и словосочетаний, оформленных как заголовки и выделенных различными способами. При этом повторяемость слова не должна превышать 10 процентов текста, для чего достаточно включить в Doorways 10 – 12 ключевых слов и словосочетаний (тогда повторяемость каждого из них не превысит 10%). Для того чтобы живой посетитель не был шокирован полученной страницей, применяется переброска на нормальную страницу:

  1. Перенаправление (redirect) живых посетителей, определяемых по переменной USER_AGENT, с помощью CGI-скрипта. Метод считается достаточно безопасным, однако не рекомендуется, поскольку чревато исключением страницы или ВСЕГО САЙТА из поисковой базы.
  2. Перенаправление (redirect) живых посетителей, с помощью javascript или flash-объекта, используя тот факт, что поисковые роботы не занимаются их интерпретацией и не будут переброшены. Метод не рекомендуется, поскольку практически все способы такой переброски известны роботам и, при их обнаружении, страницы просматриваются модератором, что, в итоге, приводит к исключению страницы или САЙТА из поисковой базы.
  3. Аналогичное перенаправление с помощью мета-тега refresh с малой временной задержкой. Метод не рекомендуется, поскольку многие поисковые системы автоматически прекращают индексацию данной страницы и, вместо нее индексируют страницу, на которую указывает refresh (Doorways теряет всякий смысл). Так же существует вероятность прихода модератора и карательных санкций со стороны поисковых систем.
  4. Замена текста страницы ссылкой на другую. Например, строка:
    <img src="11" border="0" onError="document.writeln('<h1 align=center>Сайт переехал, <a href=\'Ваш_настоящий_файл\'>жми сюда!</a></h1>');">
    

    (При этом никакого рисунка под наванием 11 на сайте не должно быть).

    Помещаемая в верху страницы безупречно скрывает весь спамерский текст, за счет того что, при вызове метода Writeln по событию, записываемый им текст не добавляется к текущему, а заменяет его. Проверить

Заключение

Лично я двумя руками (и другими конечностями) за то, чтобы пользователь поисковых систем находил именно то, что ищет. Если для этого требуется Doorways и клоакинг – пусть будут Doorways и клоакинг. Если можно обойтись без них (ну, без клоагинга, надеюсь, а без дорвеев…) – безопасней обходиться без них. Если же Doorways и клоакинг применяется не по делу (текст не соответствует ключевым словам, что часто используется для увеличения показания счетчиков посещаемости или показа рекламы), то такие сайты (а не только страницы), нужно рубить на корню.

 

Комментарии к странице

 

 

 


На главную страницу сайта