SEO-анализ текста: что это и как его правильно проводить

SEO-анализ текста: что это и как его правильно проводить

С развитием алгоритмов на просторах интернета сложились такие условия, что оптимизаторы вынуждены проводить Seo-анализ текста. Он нужен в целях примерного предугадывания реакции поисковых систем, отсеивающих проекты со слабым контентом. Статьи web-ресурса должны быть написаны с учётом основных требований.

Какие требования к тексту предъявляют seo-шники

С точки зрения Seo-оптимизации, самыми важными для текстов являются:

  • уникальность;
  • релевантность заголовков, пассажей и ключей к общему содержанию;
  • длина статьи;
  • водность;
  • чистота;
  • структурированность — списки, цитаты, таблицы;
  • плотность по ключам;
  • грамотность — орфография, пунктуация, стилистика.

Методы семантического анализа текста

Семантическая проверка текста становится всё более важной. Она показывает степень готовности материала по отношению к требованиям, предъявляемым поисковыми системами. Ниже представлены основные алгоритмы или методы, которые используют анализаторы ПС для определения качества.

LSI 

Представляет собой методику латентного или скрытого индексирования, когда роботы оценивают не только уникальность документа и насыщенность ключевыми словами, но и качество содержимого. Чем интереснее и привлекательнее составлен контент, тем он выше ранжируется и попадает на верхние строки выдачи. В данном случае Seo-шнику при анализе надо проверить наполнение и структуру сайта, определить тошноту фраз в body, мета-тегах, анкорах и заголовках.

как ключевые слова LSI помогают в Seo
как ключевые слова LSI помогают в Seo

TF-IDF

Алгоритм, определяющий значимость слова в документе относительно единой базы. Проще говоря, рассматривается плотность вхождения некоторого слова в отдельной статье. При этом оценивается количество повторений, объём материала и отношение к поисковой базе. 

Данный метод: 

  • выявляет релевантность страницы ключевому запросу;
  • индексирует стоп-слова и малозначащие фразы;
  • учитывает вес широко употребляемых слов.

Рассмотрим на примере запроса «автомобиль», который встречается в статье объёмом 2000 символов 20 раз. Показатель TF этого слова будет равен 0,01 (20/2000). Если в интернете всего 8 млрд документов, среди которых термин «автомобиль» повторяется на 4 млн страниц, то DF составит 0,0005 (4 млн/8 млрд). Далее несложно рассчитать вес слова — 0,01/0,0005=20.

Как должен действовать оптимизатор, чтобы понравится этому алгоритму.

  • Найти основные сайты-конкуренты по основному ключевому запросу.
  • Рассчитать главные характеристики, в число которых входят тайтлы, анкоры, последовательность фрагментов текста (пассаж).
  • Сформировать среднестатистические данные по всем фразам, встречаемым у конкурентов из топ-10.
  • Сравнить общие показатели в обоих поисковиках.
Сравнить общие показатели в обоих поисковиках
  • На основании полученной информации составить ТЗ для копирайтера. В нём указать требования по примерному объёму статьи, пассажу, точности вхождений, заголовкам.

По этой же схеме делается техническое задание по доработке уже написанных и выложенных материалов.

Программы для семантического анализа текста

В рунете встречается несколько программ, предоставляющих возможность качественно проверить текст.

  • Text.ru. Позиционируется в первую очередь, как онлайн-сервис для проверки уникальности. Однако даёт возможность использовать массу других полезных инструментов — определение водности, спама, орфографических и пунктуационных ошибок.
Text.ru
  • Advego. Знаменитая биржа контента, предоставляющая полноценный раздел для проведения семантического анализа. Тут можно проверять орфографию и проводить Seo. На сайте также имеется сервис антиплагиат (онлайн или скачанная на ПК программа).
Advego
  • Etxt. Позволяет проверить уникальность через специальную онлайн-форму. Кроме того, здесь имеется функция платной проверки на копии и обнаружение рерайта (1.5 рублей за 1000 символов с пробелами), а также сравнение текстов, проверка правописания и пунктуации для зарегистрированных пользователей.
Etxt
  • Turgenev.Ashmanov. Сравнительно новая бесплатная программа, разработанная специально для защиты от фильтра Баден-Баден (Яндекс). Здесь можно находить спам, стилистические ошибки, тавтологию.
Turgenev.Ashmanov
  • Главред. Полезный инструмент, помогающий очистить документ от словесного мусора и явных ошибок стилистики. Хорошо находит фразы с лишними модальными глаголами.
Главред
  • Istio. Профессиональный и бесплатный сервис для оптимизации страниц сайта. Можно проверять важные параметры — длина текста, водность, количество слов, релевантность ключевых слов, тошнота, тематика.
Istio
  • Miratext. Позволяет сделать полный семантический анализ. Качественными считает материалы с тошнотой слов до 3,5 и водянистостью меньше 10. Есть возможность проверить одновременно несколько страниц сайта по урлу, сравнивать документы, генерировать ТЗ. Отдельного внимания заслуживает отдел биржи, где можно прошерстить статью в режиме онлайн на вхождение поисковых фраз.
Miratext
  • Pr-Cy. Единый сервис для проведения аудита и мониторинга сайтов. Здесь имеется бесплатный антиплагиат, расчёт тошноты и водности, генератор анкоров, возможность сравнивать тексты онлайн, подсчитывать длину и многое другое полезное.
Pr-Cy

Заспамленность текста 

Сегодня в интернете встречается всё меньше переоптимизированных статей, а в топе выдачи их вообще нет. За это надо сказать большое спасибо Яндексу и Гуглу. Алгоритмы поисковиков активно борются с сайтами, нарушающими правила использования ключевых слов. Их сразу отправляют в бан или на сотые позиции выдачи.

Контент на заспамленность проверяется по отношению количества самых повторяющихся слов и фраз к общему объёму статьи. У плохих Seo-текстов разница большая, то есть, процент получается высокий.

Спрашивается, а зачем писать такие материалы, если можно следовать правилам. Яркий пример — карточки товаров в интернет-магазинах. Здесь надо вписать много ключей, но самого текста бывает мало. Приходится использовать синонимы, неточные вхождения, поддерживать страницы информационными статьями. 

Высокий процент заспамленности также возникает из-за неправильного распределения вхождений. Надо выдерживать оптимальное расстояние между ними — не менее 300-400 символов. Если же они скопом вбиты в начало документа, середину или конец, это грозит фильтром от поисковиков.

Проверяется заспамленность в перечисленных сервисах:

  • Text.ru — допустимое значение 30-60%;
 нормальный показатель заспамленности текста
 нормальный показатель заспамленности текста
  • Advego — тут выводится процентная частота и количество использования фраз, допустимое значение составляет на данный момент не более 2,5% для одного слова;
как проводится расчёт вхождений в Advego
как проводится расчёт вхождений в Advego
  • Turgenev — проверяется через вкладку «Повторы», показывается число использованных слов и словосочетаний;
Turgenev — проверяется через вкладку «Повторы», показывается число использованных слов и словосочетаний;
  • Istio — выводит объём использованных слов, процентное отношение среди всех значимых и незначимых фраз;
Istio — выводит объём использованных слов, процентное отношение среди всех значимых и незначимых фраз;
  • PR-CY — выдаёт полный анализ контента, но уже по адресу страницы определённого сайта (надо отдельно вводить ключевые слова).
PR-CY — выдаёт полный анализ контента, но уже по адресу страницы определённого сайта (надо отдельно вводить ключевые слова).

Уникальность текста

Новизна материала определяется процентным соотношением авторского и заимствованного из других источников текста. 95-100% — общее требование, справедливое для всех сайтов. Площадка с копипастом при других равных критериях, будет ранжироваться ниже. Поэтому надо стараться всегда делать максимально уникальный документ. С другой стороны, это не всегда получается, особенно когда приходится вставлять технические характеристики, цитаты, популярные словосочетания и фразы.

Уникальность текста

Вообще, делать именно 100-процентов необязательно. Можно поступить иначе — найти конкурентов по главному запросу. Отобрать несколько площадок из топа, затем проверить их статьи на уникальность через какой-нибудь онлайн сервис. Если самый высокий показатель составил 80%, то вовсе не обязательно делать 100%. Чтобы вырваться на первую строчку SERP, достаточно сделать 85-90%. Однако не стоит забывать о том, что в будущем появятся новые сайты. Если на них будут тексты ещё неповторимее, то займут позицию выше они. 

Вода/тошнота текста

Вода в статье — важнейший показатель Seo. Обозначает количество бесполезной с точки зрения алгоритмов информации — роботы в этом плане учитывают релевантность содержания по отношению к главному запросу страницы. 

Как и остальные параметры, водность обозначается процентами. Однако её численное выражение кардинально отличается в различных онлайн-сервисах:

  • Адвего — до 60%;
  • Истио — до 30-50%;
  • Текст.ру — до 15%.

К воде обычно приравниваются различные лексические единицы:

  • вводные слова;
  • частицы, междометия;
  • повторяющиеся союзы, предлоги;
  • превосходные степени, уменьшительно-ласкательные формы слов;
  • фразеологизмы и т. д. 

Тошнота — есть плотность ключей в материале. Данный параметр играет важную роль в системе ранжирования сайта. Если ключевых слов использовано мало, то страницы web-ресурса займут низкие позиции в выдаче, а при чрезмерно высоком их проценте — можно получить санкции со стороны поисковиков.

Тошнота бывает двух видов.

  1. Академическая. Данный показатель выводится по формуле aX100/b, где a — повторы наиболее частых ключей, b — объём статьи в символах. Норма плотности зависит от используемого сервиса. Например, на Text.ru хорошо оптимизированному тексту дают 30-60 процентов, а на Advego — от 7% до 9%.
  2. Классическая. Рассчитывается как квадратный корень из числа, соответствующего количеству наиболее популярных вхождений. Правильное значение классической тошноты составляет не более 7% (Адвего).

Структурно-семантический анализ текста

Ещё в школе нас учили тому, что существуют каноны построения романов, рассказов и повестей. Обязательно во всех типах произведения должны присутствовать: вступление, основа и кульминационная часть (заключение). Структура обычной информационной статьи создаётся по тем же правилам. 

Классический пример структуры.

  1. Заголовок. Опытные авторы всегда уделяют ему особое внимание, ведь именно благодаря H1 текст начинают читать. Известны примеры, когда после смены заголовка продажи улучшились на 50 и даже 100 процентов. Хорошим считается заглавие, в котором сочетается интрига, выгода для клиента и полезная информация (включение главного запроса).
  2. Аннотация. Часто используется в новостных и коммерческих материалах. Краткое содержание даёт читателю быстрое понимание того, что он узнает. Например, клиенту всегда интересно получить информацию о ценах, бонусах, дополнительных услугах.
  3. Вступление. Изложение этой части должно быть коротким (300 символов), объяснять суть темы и заинтриговать на дальнейшее прочтение.
  4. Основа. Здесь раскрывается тема и указывается главная информация для читателя. Эту часть статьи надо делать максимально удобоваримой — включать нумерованные и маркированные списки, подзаголовки, цитаты.
  5. Заключение. На выводах сливается большая часть новичков, только осваивающих мастерство пера. Им кажется, что они уже предоставили всё, что можно. На самом деле, современные читатели смотрят вступление, бегло пробегают основную часть и обязательно концентрируются на выводах. Как раз завершение статьи они читают вдумчиво, поэтому здесь надо постараться.

Таким образом, без грамотного Seo-анализа в нынешних условиях трудно продвинуть страницы в топ выдачи. Проверка на соответствие требованиям поисковых систем должна проводиться оптимизатором наряду с оценкой материала с точки зрения читаемости.

Зачем надо проводить Seo-анализ текста?

Чтобы оценить качество документа с учётом правил ПС. Статьи web-ресурса регулярно инспектируются алгоритмами.

Можно ли продвинуть страницу в топ на одной уникальности?

Нет, сегодня к текстам предъявляется много различных требований. Наряду с уникальностью, надо привести в норму тошноту, водность и другие не менее важные параметры.

Как поисковики наказывают за переоптимизированный (спамный) текст?

Яндекс накладывает фильтр Баден-Баден, Гугл — Панду. 

Total
0
Shares
Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Предыдущий пост
Push-трафик в арбитраже: что это такое и как с ним работать

Push-трафик в арбитраже: что это такое и как с ним работать

Следующий пост
ТОП-17 фишек в Инстаграм

ТОП-17 фишек в Инстаграм

Похожие посты
Total
0
Share