Что мешает сайту на пути в ТОП?

Хочешь в ТОП? Хватит хотеть, пора действовать!

Начать продвижение

Что мешает сайту на пути в ТОП?

Опубликовано: 25 октября 2011
19.6к
Что мешает сайту на пути в ТОП?
Москва г. Москва, ул. Нобеля 7, п. 56 +7 (800) 700-59-30

Сегодня мы продолжаем публикацию статей, в которых на примерах разбираем основные помехи, мешающие успешному продвижению сайтов в ТОП.

Аудит проводит Дмитрий Силаев, маркетолог Ingate Development.

Аудит, безусловно, необходимая штука, поскольку он помогает в выявлении ошибок связанных с оптимизацией сайта и их лечении. Сегодня я предлагаю рассмотреть аудит сайта www.22gazeli.ru, выявить основные проблемы и помочь решить их.

Начнем наш аудит с проверки основных, как я считаю, технических параметров, таких как настройка зеркал, файла robots.txt, корректности обработки 404 ошибки, аффилиатов и ряда других параметров.

Первым делом проверим настройку зеркал - у данного сайта с этим все в порядке. Основным зеркалом у сайта является www.22gazeli.ru, оно прописано в директиве Host в файле robots.txt, а также на это зеркало стоит 301 редирект при заходе на сайт без www.

С обработкой же 404 ошибки здесь есть некоторые проблемы, несмотря на то, что при заходе на несуществующую страницу, например на http://www.22gazeli.ru/heafgagdgf.html мы попадаем на «404: Not Found», но при этом сервер почему-то отдает HTTP/1.1 200 OK. Это не совсем корректно и может привести к появлению дублей в индексе поисковых систем. Стоит внести изменения в конфигурацию веб-сервера, чтобы вместо 200 OK отдавался 404-й код ответа.

Далее предлагаю перейти к анализу файлов robots.txt и sitemap.xml.

Данные файлы присутствуют, и это не может не радовать, но и тут есть несколько нюансов. На мой взгляд, файл robots.txt составлен не совсем корректно (Яндекс тоже так думает http://help.yandex.ru/webmaster/?id=996567#996574), поскольку директива Host здесь идет сразу после User-agent. На данный момент robots.txt выглядит вот так:

Я бы посоветовал его привести к следующему виду:

Файл sitemap.xml присутствует, каких-то критических проблем, связанных с ним, выявлено не было, однако я бы рекомендовал его заполнить, поскольку в данном файле указаны далеко не все страницы сайта. Правильно составленный файл sitemap.xml способствует корректной и своевременной индексации всех изменений, которые вносятся на страницах сайта.

Проверка сайта при помощи Xenu не выявила наличия битых внутренних или открытых ссылок ведущих на другие ресурсы.

Итак, дальше по плану у нас проверка сайта на наличие аффилиатов.

Сайт www.22gazeli.ru аффилирован Яндексом с сайтом www.liscom.ru. По счастливой случайности, данный сайт не работает и, по всей видимости, уже давно. Также он исключен из индекса поисковых систем Яндекс и Google. Данные сайты оказались аффилированы, скорее всего из-за одинаковой контактной информации, в частности из-за номера телефона ( http://yandex.ru/yandsearch?text=495+222+13+83+www.liscom.ru). Помимо этого, стоит на странице http://www.22gazeli.ru/kontakty-ooo-stolichnyy-perevozchik.html изменить адрес почтового ящика, поскольку анкор у ссылки info@22gazeli.ru, а при нажатии почему-то предлагается написать письмо на info@liscom.ru.

В целом же сайт неплохо индексируется поисковыми системами, как Яндексом, так и Google. Это свидетельствует о том, что критических проблем у сайта нет. Далее предлагаю разобраться с тем, почему же у сайта случился обвал позиций и как это можно исправить.

Основных причин, из-за которых произошел спад позиций, может быть две. Первая — это переоптимизированные тексты на продвигаемых страницах, а вторая - неуникальный контент.

Но обо всем по порядку.

Что касается переоптимизированных текстов, то некоторое время назад Яндекс стал наказывать сайты с нечитаемыми для людей текстами. Что касается переоптимизации, то она имеется на ряде страниц сайта, так, к примеру, на главной странице фраза «заказ газели» встречается более 9 раз в различных словоформах. В современных реалиях это очень много, в этом конкретном случае я смогу посоветовать только одно, уменьшить плотность вхождения ключевых слов в тексте минимум на 15-30% в зависимости от объема текста на странице. Помимо этого, настоятельно рекомендую отказаться от использования тегов strong, b, em, i для выделения ключевых слов на странице. Во-первых для поисковых систем данные теги не играют абсолютно никакой роли при ранжировании, ну а во-вторых, данные теги только ухудшают читабельность и без того переоптимизированных текстов.

Помимо переоптимизированных текстов стоит обратить внимание и на такой параметр как их уникальность. На ряде страниц сайта уникальность текстов колеблется от 0 до 70%, что не очень хорошо. Таким текстам стоит сделать либо глубокий рерайт, либо проще будет заказать новые тексты у фрилансера.

Помимо этого не стоит забывать о такой важной вещи, как оптимизация мета-тегов, на ряде страниц было обнаружено перечисление ключевых слов в заголовках и описании страниц. На некоторых страницах заголовки попросту отсутствовали.

Резюмируя все вышесказанное, стоит отметить, что при оптимизации не следует делать упор только лишь на многократное повторение ключевых слов в заголовках или в текстах на странице, а на их читабельность. Это связанно с тем, что при осуществлении перехода на сайт, пользователь в первую очередь ориентируется на читабельный заголовок и сниппет, а не на количество вхождений ключевых слов в title.

От себя могу сказать, что я никогда не перейду из выдачи на сайт с заголовком типа «Заказать газели, только у нас вы сможете заказать самые газелистые газели в Москве недорого» стоящий на первом месте в выдаче, но перейду на сайт стоящий на втором месте с менее броским заголовком «Заказ газели для перевозки грузов (грузоперевозки) по Москве и области».

При оптимизации сайтов, всегда стоит в первую очередь ставить себя на место посетителя и делать сайт максимально удобным для него, а не для роботов поисковых систем. Времена, когда прописав ключевые слова в keywords или разместив текстовую «портянку» на странице вы попадали в ТОП, увы, давно прошли.

Дмитрий Силаев, маркетолог Ingate


Оценить статью

6 5