Начинающие
веб-мастера часто недооценивают влияние поисковых систем на раскрутку
проектов. А ведь именно "поисковики" призваны обеспечивать стабильный
приток посетителей и весьма неплохой. Хотя количество хостов из поисковых
систем зависит от общего количества размещенного материала, тем не менее,
начинающий сайт может рассчитывать на диапазон от 3 до 50 хостов в сутки.
Заметьте, это без каких-либо денежных затрат на рекламу.
Но для привлечения посетителей из "поисковиков"
необходима продуманная и качественная работа, большей частью незаметная
для читателей. Я имею в виду работу по оптимизации страниц для поисковых
роботов. Несмотря на то, что основные требования к сайтам со стороны
"поисковиков" хорошо известны, количество успешно проиндексированных
ресурсов невелико (в мировом масштабе до 16% от общей величины поданных
заявок). До начала оптимизации давайте разберемся,
как работают поисковые роботы и как происходит оценка релевантности.
Исходными данными, несомненно, является сам документ в формате HTML.
Частота повторения слов в тексте, пожалуй, основной фактор для оценки
страницы. Для роботов также важны: содержание тэгов <TITLE>,
<МЕТА> (в первую очередь параметры "descriptions", "keywords",
"Content-Type" и "Content-Language"), текст самого документа (особое
внимание тэгам <H1>-<H6>,<B>,<STRONG>),
альтернативный текст для изображений (параметр ALT тэга <IMG>).
Не все части документа воспринимаются равнозначно.
Текст в начале страницы находится в более выгодном положении. Интересный
факт: одна и та же страница, изготовленная "вручную" и, например,
средствами Word будет проиндексирована по - разному. Автоматические
генераторы HTML весьма далеки от совершенства и лишний "мусор"
сгенерированный текстовым процессором Word будет причиной такой разницы.
Стремление поместить основной текст в начале
страницы и, таким образом, повысить релевантность ключевых слов, иногда
находит отражение в изменении стандартной навигации. Web-мастера помещают
ее справа. С точки зрения юзабилити это не самый лучший шаг, но в нем есть
свое рациональное зерно. Отдельный разговор о
фреймах и страницах с динамическими данными. Если фреймы в последнее время
стали индексироваться более - менее корректно (все же их использование на
первой странице нежелательно), то динамические блоки роботами, к
сожалению, игнорируются (это относится и к Flash). Вывод: "поисковики" не
любят "навороченных" сайтов. Делая ставку на поисковые системы, помните об
этом. Итак, с теорией разобрались, - приступим к
оптимизации. Страницы, ориентированные на индексацию, должны быть по
возможности простыми, без ошибок, с прописанными <TITLE> и
<META>. Частое повторение в тексте ключевых слов также нежелательно
(оптимально 3 - 7 раз), иначе робот подумает что его "спамят" и покинет
страницу. Если сайт использует динамические ссылки, проверьте,
продублированы ли они обычными статическими. Для гарантии индексирования
всего ресурса избегайте вложенности ссылок больше 5 - 6 уровня.
Скорее всего, сайту сразу не удастся попасть в
первые 30 позиций ссылок, выбранных по Вашим ключевым словам (по первым 30
ссылкам переходят 95% посетителей). Но, проанализировав структуру и HTML -
код лидеров, вы сделаете выводы, которые в будущем принесут успех.