Самые распространенные ошибки в SEO

  1. Плохая или недостаточная индексация
  2. Проблемы с сканированием и индексацией
  3. Как мы проверяем индексацию поисковой системы?
  4. Решение проблемы недостаточной индексации
  5. На что обратить внимание?

16 августа 2016 г. | Павел Унгр

У вас есть резервы в SEO? Следующий список ошибок (и особенно их решения) поможет вам в качестве руководства по SEO для любого существующего или будущего сайта.

В SEO, как и в других областях, те же ошибки часто повторяются на сайтах. Если вы расставите приоритеты и решите их, очень вероятно, что не будет никаких серьезных барьеров для успешной поисковой оптимизации. Следующий список ошибок (и особенно их решения) поможет вам в качестве руководства по SEO для любого существующего или будущего сайта.

Плохая или недостаточная индексация

Индексирование - это процесс, с помощью которого поисковая система сохраняет в своей памяти информацию, собранную на веб-сайте специализированными программами, также называемыми сканерами. Они пытаются загрузить весь контент сайта, а поисковая система сохраняет его в так называемом индексе (в своей базе данных).

Тем не менее, во время этого процесса могут возникнуть технические препятствия: робот не сможет правильно загрузить страницу или поисковая система не сохранит всю страницу в своем индексе.

Качественная и достаточная индексация является основой функционирующего сайта. Наша цель - чтобы роботы регулярно сканировали страницу и беспрепятственно индексировали поисковые системы.

Проблемы с сканированием и индексацией

Наиболее распространенными препятствиями для роботов и индексации являются:

    • Текстовое содержимое страницы написано с помощью технологии, с которой не справляются поисковые системы (например, JavaScript, Flash, текст на изображениях, страницы, защищенные паролем, текст, отображаемый на основе файлов cookie и т. Д.)
    • Сайт реагирует медленно и не может перечислить контент до того, как робот поисковой системы сдастся.
    • Роботам запрещен доступ к сайту - либо с помощью защищенного паролем раздела, либо путем отключения доступа к robots.txt, с помощью метатега роботов или с помощью xrobots в заголовке http.
    • Страницы дублируются или очень похожи . Содержимое вашего сайта также доступно по другому URL, и у поисковой системы нет причин индексировать дублированный контент.
    • Сайты штрафуются поисковыми системами . Если вы постоянно и неоднократно нарушаете рекомендации поисковых систем в их помощи, поисковые системы могут оштрафовать вас и привести к дисквалификации из индекса.
    • Сайт не получает поисковую систему из-за неправильной структуры сайта и недостаточной работы с внутренними и внешними ссылками. Другими словами, на странице нет ссылок с любой другой проиндексированной страницы .

Как мы проверяем индексацию поисковой системы?

Сколько страниц нашего сайта индексирует поисковая система, мы сверим с оператором сайта : Операторы - это слова, оканчивающиеся на двоеточие, которые в различных сочетаниях можно вводить в поле поиска для уточнения поиска.

Синтаксис site: yourdomain.com. Например, чтобы проверить Mall.cz, мы используем сайт: mall.cz. Этот оператор работает как для Google, так и для поисковой системы. На основе этого оператора поисковые системы будут перечислять ваши проиндексированные страницы сайта с самым высоким рейтингом.

Вы также можете увидеть количество всех поисковых систем, проиндексированных в красном поле на изображении.

На рисунке выше показано, что Google перечисляет эту информацию вверху, а список внизу На рисунке выше показано, что Google перечисляет эту информацию вверху, а список внизу . В этом случае также приятно видеть, как простая поисковая система ищет проблему с индексацией. Список индексирует с Mall.cz 877 на 120 страниц и Google только 431 000, что составляет менее половины. Это может указывать на проблему. Либо список индексирует много бесполезных страниц, либо Google не индексирует большое количество страниц.

Решение проблемы недостаточной индексации

Отсутствие индексации всегда происходит из-за некоторых проблем, которые я описал в главе « Сканирование и индексирование» . На этом этапе лучше всего изучить возможные причины и выяснить, какая из них относится к вашему сайту. Теперь давайте посмотрим на наиболее распространенные причины.

Неуместная технология

Отключите JavaScript (поддержка Flash и т. Д.) В своем браузере и попробуйте просмотреть свой сайт. Если часть страницы не отображается, возможно, вы столкнулись с причиной проблемы индексации (см. Рисунок).

В этом случае возникает проблема с техническим решением, где веб-сайт также перечисляет содержимое и URL-адреса других страниц с использованием JavaScript.

Решение состоит в том, чтобы переписать шаблон вашего сайта так, чтобы даже без JavaScript сайт можно было использовать и, следовательно, использовать для роботов. Отключение JavaScript не делает ваш сайт непригодным для использования.

Дубликаты в сети

Инструмент поможет вам выявить дубликаты Google Search Console , Как и Google Analytics, она абсолютно бесплатна и, как инструмент веб-диагностики, с точки зрения Google, является очень полезным инструментом для обнаружения дубликатов.

В отчете, который вы видите на скриншоте, вы можете узнать о сайтах с дублирующими заголовками и мета-описанием. Таким образом, вы можете выявить ряд дубликатов. Вы можете использовать другие инструменты, такие как Screaming Frog, Xenu или SEO, аналогичным образом.

Дубликат решения имеет два варианта: Дубликат решения имеет два варианта:

1. Дубликаты сайтов не нужно обслуживать - дубликаты URL-адресов необходимо перенаправлять с помощью 301. Вы можете сделать это самостоятельно, отредактировав файл .htaccess прямо на сервере или используя заголовок PHP. Некоторые системы управления контентом имеют эту встроенную функциональность. Если вы не знаете, спросите своего разработчика.

2. Дубликаты сайтов важны для посетителей. Мы отключаем индексацию страницы с помощью метатега робота в источнике страницы :. Это также может помочь запретить сканирование в файле robots.txt. Обратите внимание, что оператор robots.txt не отключает индексирование.

Пользователь-агент: *

Disallow: / url-duplicitni-stranky /

Плохо решенная фильтрация

Фильтры допускают конкретную категоризацию категории. Фильтрация страниц - это отличные целевые страницы, особенно для длинных фраз. Однако несоответствующие технические решения - особенно интернет-магазины - делают эти ценные целевые страницы не проиндексированными .

Типичными представителями плохо решенной фильтрации являются известные веб-сайты, такие как Alza.cz или Mall.cz. Фильтрующие сайты имеют следующие URL-адреса, такие как LED-телевизоры Samsung: https://www.mall.cz/led-tv#!?menuItemId=10004050&brands=samsung и https://www.alza.cz/televize/18849604.htm#f&cst=0&pg=1&prod=1299&sc=600 ,

Что поисковые системы думают об этих URL, показано на следующем снимке экрана:

Для правильной фильтрации со страницы SEO должны быть соблюдены следующие условия:

1. Ссылка на сайт, созданная фильтрацией, должна быть в исходном коде страницы, даже если JavaScript отключен.

2. Все варианты фильтров должны работать с отключенным JavaScript .

3. Фильтрующие страницы должны иметь уникальный URL (который не должен содержать символ #).

4. Фильтрующие страницы должны иметь уникальный контент , особенно субтитры , мета-описание, заголовок и вводный текст .

Пример такой фильтрации можно найти на Glami.cz :

На что обратить внимание?

Если вы хотите вести бизнес в Интернете, SEO всегда будет одним из самых важных каналов. Вышеуказанные ошибки могут заблокировать ценный трафик или потенциальных клиентов. Я рекомендую вам не недооценивать эту проблему и иметь под рукой высококлассного SEO-специалиста при создании сайта и любой маркетинговой стратегии.

Удачи в получении трафика от поисковых систем!

Удачи в получении трафика от поисковых систем

Автором статьи является Павел Унгр , специалист по SEO и онлайн-маркетингу с десятилетним опытом работы в этой области Автором статьи является Павел Унгр , специалист по SEO и онлайн-маркетингу с десятилетним опытом работы в этой области. Он работает внештатным консультантом и приобрел опыт работы в H1.cz и Ataxo. Помимо SEO, он интересуется UX, контент-маркетингом и социальными сетями. Он работает для средних и крупных клиентов, таких как Lidskásíla.cz, Alkohol.cz, Карлов университет, Hudy.cz, eBrána или иностранных проектов, таких как Social Bakers или Lectura. Павел - настоящий энтузиаст своего дела, о котором он также читает лекции и публикует. Вы можете посетить его публичное обучение или си заказать его услуги , О новостях в SEO сообщает щебет и самостоятельно блог , Те, кто интересуется SEO, также будут заинтересованы в его проектах. vyhledava.cz и SEOloger ,

Эта статья является одной из глав электронных книг Forpsi, созданной с помощью агентства
Эта статья является одной из глав электронных книг Forpsi, созданной с помощью агентства. RobertNemec.com и ряд независимых экспертов.

Он предназначен для всех, кто хочет повысить производительность своих веб-сайтов, и для тех, кто хочет получить базовое представление об основных областях онлайн-маркетинга. 11 глав предлагают это содержание:

    • Павел Унгр - самые распространенные ошибки в SEO, которые совершают владельцы сайтов.
    • Мартин Шимко - на что следует обращать внимание при работе с SEO-консультантом или агентством.
    • Мари Штурачова - Оптимизация сайта для мобильных подходов .
    • Juraj Sasko - SEO и веб-хостинг .
    • Марио Роженски - основы аффилированного маркетинга для интернет-магазина .
    • Зденек Дворжак - практические советы и рекомендации по созданию обратных ссылок .
    • Адам Юрак - основы электронной почты и использования для бизнеса .
    • Klára Kunová - Оценка эффективности работы интернет-магазинов .
    • Людмила Навратилова - практические советы по работе с Google Analytics .
    • Давид Маречек - как лучше понять аудиторию вашего сайта и почему важно тестирование .
    • Monika Styx - Как генерировать контент .

Электронную книгу можно скачать бесплатно на сайт FORPSI ,

Поделиться этой статьей: