
Рано или поздно, для каждого сайта, ну или почти для каждого, наступает момент, когда его надо превращать в универсальную площадку по продаже товаров или услуг. На помощь, в большинстве случаев, в этом нелегком деле, приходит такая странная и во многом непонятная штука - поисковая оптимизация. Но поисковая оптимизация злая штука, поскольку может прийти на помощь, как в виде квалифицированного специалиста, который продвинет, так и в виде того, кто "задвинет".
Поэтому любому владельцу сайта, который продвигается самостоятельно или которого продвигают, время от времени, не помешает проводить аудит своего сайта "на стороне".
Об одном таком аудите, я вам сегодня и хочу рассказать.
Заодно хочу провести мини-исследование, что будет быстрее, аудит сайта своими руками или при помощи сервиса Rooletka (параллельно с проведением аудита лично мною, был запущен анализ сайта в сервисе Rooletka), о итогах напишу в конце статьи.
Недавно один знакомый попросил меня провести аудит его сайта, поскольку, цитирую: «У меня почему-то не растут позиции!». Не отказывать же человеку, а тем более хорошему знакомому. По понятным причинам выставить на всеобщее обозрение сам сайт, к сожалению, не могу, но расскажу немного о том, каким именно «пыткам» я его подверг.
Основной целью аудита являлось выявление причин, из-за которых сайт последние пару месяцев стоит, как вкопанный и не двигается к заветному ТОП5. Осмотр своего пациента я начал с захода на сайт. Внешне он показался достаточно неплох, особенно если сравнивать его с коллегами по тематике. Уникальный дизайн, который приятен глазу, текст разбавленный фотографиями из «жизни» фирмы, ну и все в таком духе. Достаточно качественный региональный сайт небольшой фирмы.
Вначале было решено проверить, сколько страниц находится в
Ну а пока Xenu обрабатывает сайт, я решил не терять времени и проверить настройку
Далее было решено проверить robots.txt на корректность. В robots.txt передо мной предстала интересная конструкция:
Я, конечно, могу понять многое, но вот это за гранью добра и зла. На мой взгляд всё же правильне так:
После осмотра robots.txt оставалась еще куча времени, и, поскольку Xenu отработал только на 50%, я решил продолжить осмотр "пациента". Далее моему пристальному взору подверглось содержимое файла «sitemap.xml», осмотр файла и проверка через
К этому моменту, Xenu успешно отработала и проанализировала все ссылки на сайте. Она нашла с десяток битых ссылок, которые вели на несуществующие страницы. Помимо этого было найдено около 10 внешних ссылок на внешние ресурсы. На ряде страниц, были найдены проблемы с кодировкой, которые необходимо будет исправить. Но самое главное, что Xenu нашел очень много ссылок вида «/search.html?value=ремонт+автомобилей+лада». При более детальном осмотре сайта, наткнулся на облако тегов, состоящее из таких вот чудесных ссылок. Все, разумеется, было открыто для индексации и успешно индексированно поисковиками. Для того чтобы убедиться в своей правоте, ввожу в Google запрос вида "inurl:"/search.html?value=" site:site.ru" и вижу аж целых 766 страниц в индексе. Все эти "чудесные" страницы сразу же закрываются при помощи «Disallow: /search.html?value=*» от индексации. Правда ждать пока все это хозяйство выпадет из индекса, придется, скорее всего, достаточно долго. Можно, конечно, воспользоваться интерфейсом удаления страниц Яндекса и Google, но желания руками удалять почти 1000 страниц у меня нет.
Далее предлагаю плавно переместиться к проверке наличия на сайте технических дублей, что-то мне подсказывает, что они здесь присутствуют в большом количестве. Провожу самую простую проверку, для этого копирую содержимое мета-тега title и при помощи запроса к Google в формате "intitle:"Заголовок главной страницы" site:site.ru" нахожу целых 3 дубля морды сайта. Что самое интересно, Google нашел:
• http://www.site.ru/glavnaya_stranica.html?PHPSESSID=ca73a74e76f5e91291fd08d386b36b01
• http://www.site.ru/?PHPSESSID=4fb6e54a499c9fbf59087b729fe81fec
Выборочно проверяю этим же методом и другие страницы, где также нахожу полные дубли. После закрытия всего ненужного в robots.txt, приступаю к следующему этапу - проверке текстов на страницах на уникальность.
Проверить текст на уникальность мне помогает Advego Plagiatus, которым выборочно проверяю тексты на страницах и, как и следовало ожидать, тексты оказываются в лучшем случае уникальными на 40-50%. В отчете, обязательно напишу знакомому, чтобы закладывал бюджеты на копирайтеров. Поскольку в лучшем случае, для некоторых текстов можно обойтись рерайтом, а что-то, в виду 100% не уникальности, будет проще написать с нуля.
Выходя на финишную прямую, при помощи сервиса Rooletka, проверяю на наличие у сайта аффилиатов. К этому времени, сервис как раз успешно завершил анализ сайта. Ну и дабы не лезть в другие сервисы я использую данные из Rooletka, поскольку они в разы «свежее», чем у аналогов. Из того, что я сегодня увидел, меня совершенно не удивило бы наличие у сайта еще и клонов, однако опасения не подтвердились и хоть здесь, у него нет проблем.
Напоследок, при помощи сервиса ahrefs.com, произвожу проверку обратных ссылок на анализируемый сайт. Как оказалось, у сайта нет как такового ссылочного, беглый анализ беклинков показал, что он, по всей видимости, имел место прогон по бесплатным
Резюмируя все вышесказанное, хочется посоветовать читателям (особенно тем, кто только осваивает SEO), только одно - следите за своим сайтом. Ведь даже небольшие, казалось бы, ошибки, могут стать серьезным противовесом и помешать вашему сайту выйти в ТОП.
Если у вас достаточно времени и желания, вы можете использовать все выше изложенное в качестве справки и попробовать провести аудит самостоятельно. Ну а для тех, у кого нет времени, или познаний в SEO, советую воспользоваться сервисом Rooletka - это просто и быстро.
Дмитрий Силаев, маркетолог Ingate Development