т. (383) 381-86-26

Блог о создании вебсайтов

 

10-ти минутный аудит SEO сайта

 

Для того, чтобы сайт не терял своих позиций в результатах поисковой выдачи следует регулярно проводить его аудит. Если информация и структура сайта меняется изредка, то проводить аудит раз в месяц будет достаточно.

А сейчас поговорим о том, как за 10 минут провести базовый seo-аудит сайта. Поговорим о robots.txt, sitemap.xml, дублировании страниц, про мета-тэги и уникальность текстовой информации на вашем сайте. И не просто поговорим, а расскажем как быстро выяснить что из перечисленного требует корректировки.

1. robots.txt

Начнём с robots.txt. Это особый файл. Когда поисковый робот Яндекс или Гугл заходит к вам на сайт, то первым делом он пробует загрузить robots.txt. Этот файл содержит особые правила для поисковых роботов: запрет на индексацию определённых страниц или разделов сайта, зеркалирование домена, определяет ограничение на частоту скачивания страниц сайта. Много полезной информации можно найти на robotstxt.org.ru и help.yandex.ru.

Теперь перейдем анализу этого файла. Для этого воспользуйтесь инструментом от Яндекс "Яндекс.Вебмастер" (Если у вас нет аккаунта там — создайте. Это легко и бесплатно). Зайдите в вебмастер и перейдите в раздел "настройки индексирования / анализ robots.txt". Там вы сможете загрузить файл robots.txt, послче чего инструмент проанализирует ваш файл и выдаст вам список возможных ошибок в robots.txt.

2. sitemap.xml

Второй специальный файл, который должен присутствовать на вашем сайте. В sitemap.xml описывается структура вашего сайта в виде ссылок:


    <urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
        <url>
            <loc>http://lucky-fingers.ru/product/krossovki-pyat-paltsev-kso-chernyie/</loc>
            <lastmod>2014-12-04</lastmod>
            <changefreq>daily</changefreq>
            <priority>0.9</priority>
        </url>
        <url>
            <loc>http://lucky-fingers.ru/product/cherno-belyie-speed/</loc>
            <lastmod>2014-11-28</lastmod>
            <changefreq>daily</changefreq>
            <priority>0.9</priority>
        </url>    
    </urlset>

Значение этого файла для индексации таково, что сайты с наличием sitemap.xml индексируются значительно лучше и более полно. Яндекс.Вебмастер и Google Webmaster предоставляет возможность загрузить этот файл для анализа и индексирования указанных в нём ссылок. Если в файле будут ошибки, то Яндекс/Гугл вебмастер вам об этом сообщит.

3. HTML разметка сайта

Правильность HTML разметки сайта существенно влияет на качество индексирования. Всё дело в любви поисковых роботов к сайтам, страницы которых свёрстаны без ошибок. Добиться этого бывает нелегко, но стремиться к этому безусловно нужно. Для этой цели служат соответствующие инструменты — валидаторы. Один из них вы можете найти тут: http://validator.w3.org. Проверяйте вашу разметку и исправляйте. Этим вы облегчите работу поисковым роботам и улучшите качество индексирования страниц сайта.

4. Дублирующиеся страницы сайта

Когда на одну и ту же страницу ведут несколько разных путей (ссылок), то поисковые системы считают каждую такую ссылку отдельной страницей, а их содержание дублирующимся. Соответственно дублирующиеся страницы оказывают плохое воздействие на индексацию сайта. Примеры дублирующихся страниц:

При продвижении интернет-магазинов это играет существенную роль, так как на таких сайтах всегда большое количество внутренних перекрестных ссылок. Хорошей практикой будет, когда к странице товара будет вести только один проиндексированный путь.

Кстати, страницы, ссылки на которые содержат UTM метки также иногда считаются дублями. Для борьбы с дублями проводите регулярный анализ страниц вашего сайта.

5. Анализ содержания

Современные поисковые системы очень умны. Для продвижения сайта сегодня не достаточно иметь много ссылок на ваш сайт с других сайтов. Всё большее значение приобретает качество содержания сайта. Современные поисковики умеют изучать качественное содержание сайта, определять степень его соответствия (релевантность) поисковым запросам. Т.е. если человек спрашивает поисковую систему "как заточить нож?", современный поисковик будет стараться подобрать для ответа ссылки на сайты, которые максимально полно раскрывают тему заточки ножа.

5.1 Заголовок TITLE

Тэг разметки <title> до сих пор играет важную SEO-роль. Меньше, чем раньше, но всё еще важную. С его помощью формируются поисковые сниппеты, он используется в заголовке вкладки браузера и т.д.

Хорошим будет заголовок, в который входят ключевые слова страницы в осмысленном для человека виде. Заголовок не должен быть слишком коротким и не должен быть слишком длинным (не больше 70 символов или примерно 12 слов)

Хороший заголовок страницы должен, во-первых, максимально соответствовать поисковому запросу, по которому вы хотите, чтобы эта страница находилась. Во-вторых, он должен быть понятен человеку, иметь ясный смысл.

Хорошо, если заголовок из <title> повторяется в тексте страницы внутри тэга h1. И этот тэг предшествует тэгам h2, h3, h4 и т.д. Лучшее расположение разметки заголовков — иерархическое. Старший выше, а младший ниже.

Meta keywords & description

Эти тэги хорошо известны всем, кто занимается веб-сайтами. В мета-тэге "keywords" указываются все ключевые слова, характеризующие страницу. Ключевые слова подбираются так, чтобы они входили в те поисковые запросы, результаты которых должны содержать ссылку на страницу вашего сайта. Ключевые слова также используются совместно с текстом из тэга "description" для формирования поискового сниппета в результатах выдачи.

Мета-тэг "description" в основном используется поисковыми системами для формирования поискового сниппета и частично для определения релевантности страницы сайта поисковому запроса. Раньше он играл более важную роль, а сейчас нет. Но до сих пор его наличие существенно помогает сайтам лучше выглядеть как в "глазах" поисковиков, так и в глазах посетителей.

6. Уникальность ваше всё

Как было написано выше, в современном интернете очень важно иметь качественный и уникальный контент сайта. Плохую и не уникальную информацию на сайте поисковики считают "плагиатом" и относятся к таким сайтам плохо: показывают малое число страниц сайта, опускают в результатах выдачи.

7. Помехи и помощники со стороны

Хоть выше мы и сказали, что количество ссылок на сайт постепенно стало утрачивать свою важность при продвижении, но на данный момент этот способ всё еще работает и приносит определённые результаты. Однако, не все ссылки со стороны могут быть хорошими и повышать рейтинг сайта в поисковиках. Рассмотрим на какие ссылки следует смотреть особенно внимательно:

Сквозные ссылки

Так называются ссылки на ваш сайт, которые есть на каждой странице другого сайта. Поисковые системы их не любят и вводят в отношении сайтов, на которые ведёт большое число таких ссылок свои санкции.

Спам ссылки

Это ссылки, идущие с сайтов-мусорок, которые предназначены для продажи мест под ссылки.

Мусорные ссылки

Ссылки с сайтов, имеющих низкий рейтинг тИЦ или PR, а также с сайтов, которые были замечены в распространении вирусного ПО.

Покупные ссылки

Довольно давно уже существуют специальные биржи для покупки и продажи ссылок. Созданы они для той же цели — продвижения своего сайта через увеличение числа ссылок с внешних ресурсов. Сейчас поисковые системы, особенно Яндекс, понижает рейтинг сайтов, продвигаемых с помощью коммерческих ссылок. По их заявлениям они научились выделять такие ссылки и понижают рейтинг тех, кто был замечен в покупке ссылок.

Трафик сайта

Для того, чтобы оценивать эффективность результата применения приведённых выше советов важно следить за трафиком. Следует внимательно и регулярно проводить его анализ: смотреть стоит ли он на месте, начал расти, начал падать. Падение или застой роста трафика помогает отслеживать сбои, плохие изменения на сайте, а также своевременно применить меры для исправления сложившейся ситуации.

Следите за нашими публикациями и вы узнаете ещё больше о том, как влиять на посещаемость вашего сайта с помощью различных методик, хитростей, а также правильного подхода к созданию сайта.

Подпишитесь на рассылку, будет интересно!