Распространенные ошибки в оптимизации сайта

Здравствуйте, друзья!

Начинаю новую серию статей про ошибки в продвижении и первая из них будет про основные ошибки оптимизации сайта.

Наверняка, вы попадете хотя бы под один пункт из данного чек-листа, в виде которого я и хочу сделать сей мануал. Конечно же не обойдется и без объяснений каждой ошибки. Настоятельно рекомендую провести анализ сайта на ошибки по данной статье.

Важно! В данном материале не буду показывать, как устранить данные ошибки. Я лишь перечислю и объясню основные, которые вам уже нужно будет найти на сайте и устранить их. Это будет первый материал по данному вопросу. В следующих мы уже начнем практиковаться.

Технические ошибки

  1. Доступность сайта. Мало кто уделяет данному моменту должное внимание. Происходит ситуация, когда владелец сайта заходит на него иногда и видит, что ресурс в строю. Но если поставить мониторинг доступности сайта, то можно увидеть, что показатели работы сайта не совпадают с тем, что мы замечаем.Очень часто сайт может быть недоступным по пару минут в день, а в месяц уже накапливается достаточно большое количество времени его неработоспособности, а ведь в данный промежуток времени мог зайти робот поисковых систем и собрать нежелательную статистику. Тогда сайт может понижаться в поисковой выдаче. Также это касается и показа рекламы на сайте. Если из 30ти дней 1-2 дня сайт недоступен, то мы можем терять часть прибыли с него.

    В сервиса Яндекс.Вебмастер можно отслеживать статистику запросов робота и наличие ошибок при соединении с сервером сайта.

    Доступность сайта также можно отслеживать с помощью сервиса ping-admin, который часто делает запросы к сайту и можно видеть детальную статистику о работе сайта. К тому же, если не изменяет память, в нем можно реализовать оповещение о недоступности сайта на мобильный номер;

  2. Дубликаты страниц. Один из важнейших моментов, когда один и тот же контент доступен по разным адресам. Обязательно нужно проверять сайт на ошибки данного характера. Вы можете и не создавать такие страницы сами. Но они могут создаваться автоматически различными лишними ссылками движка, если неправильно настроена оптимизация сайта.На движке WordPress это могут быть ссылки "Ответить" в комментариях. Часто появляются дубли страниц комментариев. Чтобы таких страниц не было, всегда старайтесь избавиться от лишних и ненужных ссылок с сайта, которые могут посодействовать появлению дублей страниц;
  3. Ошибки отклика от сервера. Ошибка связана со слабым хостингом или его слабым тарифом, когда сервер не справляется с нагрузкой на сайт и ресурс становится недоступным. По началу, когда сайт только создался, эта проблема не будет заметна, так как нагрузки на него не будет.Но, когда в один момент на сайт будут заходить сразу 100 человек, то сервер просто не выдержит, страницы не будут грузиться и посетители на сайт не зайдут. В данном случае мы обращаемся к хостингу и повышаем тариф. Если ресурс сильно посещаем, то придется переезжать на выделенный сервер;
  4. Наличие ошибок 404, 50*.

    На вашем ресурсе не должно быть ошибок, которые отдают ответ сервера 404, когда страницы не существует или же различные ошибки 501, 502 и так далее, когда страницы не грузятся из-за большего времени ожидания или же из-за ее недоступности в данный момент времени.

    Такие документы обязательно анализируем и устраняем проблемы;

  5. Циклические ссылки. На сайте не должно быть ссылок страниц, которые ведут на самих себя. То есть, если я сейчас нахожусь на странице "Об авторе", то на данной странице я не должен иметь возможности перейти на эту же страницу. Можете посмотреть в моем главном меню.Тоже самое касается и ссылок в тексте. У многих внутри статьи имеется кликабельный заголовок статьи, являющийся ссылкой на эту же страницу. Также часто внутри статьи используют изображения, которые тоже являются ссылкой на данный материал. Такие ссылки называются циклическими и их не должно быть;
  6. Глубина сайта не больше 2х, в редких случаях 3. Старайтесь, чтобы глубина вложенности ресурса была максимум 2го. То есть, главная страница - 0 уровень, рубрика - 1й, статья - 2й.Могут быть еще и подрубрики, тогда глубина сайта будет 3. Это также допустимо, но старайтесь не использовать глубину 3го уровня, так как это затрудняет индексирование таких страниц поисковым роботам;
  7. Наличие страниц с низкой скоростью загрузки. Выявляем такие страницы и анализируем на причины низкой скорости. Это могут быть не оптимизированные изображения большого размера, ошибки в коде страницы и так далее.Если не знаете, как ускорить загрузку сайта, то прочтите материал по предыдущей ссылке;
  8. 30% контента в соотношении к коду страницы. В большинстве случаев, веб-мастера использую такие навороченные шаблоны, в которых куча ненужного кода или его просто слишком много.  таком обилии кода контент просто теряется и это плохо с точки зрения технической оптимизации.Стараемся придерживаться минимум в 30% контента из всех 100% исходного кода страницы. Если добьетесь показателя в 50%-60%, то вообще супер;
  9. Наличие непроиндексированных страниц. Обязательно проверяем их на причины отсутствия в индексе, так как на них могут быть технические ошибки. Также это могут быть страницы с низким качеством контента или вообще копипаст, который рано или поздно может выпасть из индекса.
к содержанию ↑

SEO ошибки

  1. 95% страниц, загруженных роботом, должны находится в индексе. Частый случай, когда много страниц были загружены роботом, но в поисковый индекс не попали. Стоит находить такие страницы и анализировать их.Причиной может быть сам контент, наличие ошибок на странице. Такая проблема случается и со старыми страницами сайта, которую уже кучу раз скопировали на другие ресурсы, она потеряла свою уникальность и выпала из индекса. Можно переписать текст. Много вы от этого не потеряете, но зато будет полноценная индексация проекта;
  2. Обязательное должен присутствовать файл robots.txt, в котором прописаны директивы для всех поисковых роботом (яндекс, google, mail, а также рекламные роботы адсена и яндекс директа).

    Если у вас ресурс на движке WordPress, то настоятельно рекомендую проштудировать мой материал про файл robots.txt для WordPress;

  3. Обязательно наличие карты сайта Sitemap.xml для поисковых роботов, а также рекомендуемое наличие html карты для людей.HTML карта должна быть открыта для индексации на всех страницах сайта;
  4. Отсутствие заголовков и подзаголовков. На каждой странице сайта должен быть заголовок H1 и подзаголовки (хотя бы H2). Если таких заголовков нет, то переделывайте страницы, так как это спорный момент. Что это за страница, если на ней нет заголовков?H1 должен быть в обязательном порядке и содержать в себе название страницы. А H2-H6 используются для структурирования контента;
  5. Переспам страницы тегом strong. В своих статьях я уже писал, что данный тег стоит использовать лишь для выделения ключевых мыслей статьи для акцентирования на них внимания посетителей. Можно сделать вывод, что много данного тега на странице быть не должно, а уж тем боле выделений ключевых слов или отдельных фраз.Старайтесь употреблять данный тег 1 раз на 2000 символов и выделять лишь целые предложения с ключевыми мыслями. Никаких выделений "для галочки" и употребления более 10 раз на странице;
  6. Отсутствие или повторяющиеся мета-теги (title, description, keywords). Даже, если это служебные страницы или рубрики, вы все равно должны прописать к ним все мета-теги.Также должно отсутствовать дублирование мета-тегов, например один и тот же заголовок для разных страниц. Когда такая проблема будет у вас, то в google веб-мастере вы будете получать уведомления об этом в соответствующем разделе;

  7. Исключены нужные страницы в файле robots.txt. Если вы закрываете какие-то страницы в данном файле, то обязательно просматривайте через инструменты веб-мастеров, те ли страницы исключены, так как из индекса могут выпасть нужные страницы.

    У меня, например, вот недавно выпала одна статья из индекса, так как в файле роботса было прописано правило, которое содержало слово, содержащееся в URL адресе статьи. Повезло, что я быстро среагировал на данную проблему и изменил свой файл.

  8. Выявление внешних ссылок с сайта. Также распространенная ошибка, когда с сайта ведет большое количество ссылок на другие сайты, а тем более на некачественные ресурсы. Такие ссылки стоит убирать.Еще стоит выявлять внешние линки, чтобы убрать их из шаблона. Если вы используете бесплатную тему, то имеется вероятность, что в него вшиты такие ссылки, ведущие, например, на сайт разработчика. И конечно же, при взломе сайта могут наставить много ссылок внутри материалов;
  9. Проверка длины мета-тегов TDK (title, description, keywords). Мало кто соблюдает необходимую дину данных тегов при оптимизации страниц;
    • title - 60-75 символов;
    • description - 160 символов;
    • keywords - длина может быть и большой (относительно) и маленькой. Все зависит от частотности ключа, но не старайтесь впихнуть "как можно больше". Только то, что нужно для конкретной страницы.
  10. Отсутствие выделений жирным с помощью тега strong. На каждой странице мы должны делать акцент на ключевых мыслях, чтобы помочь посетителю. Если имеются страницы без таких выделений, то постарайтесь их доработать.Кроме тега strong можно использовать тег em (курсив), который также несет смысловую нагрузку поисковым системам;
  11. Совпадение плотности ключевых слов в тегах.Приведу пример. Например, мы используем ключевое слово в теге title, что очень уместно и логично, а затем в самом тексте статьи выделяем эти же ключевые слова в теге strong (или другим смысловым тегом, например em). Это уж явный знак, что мы пытаемся повысить плотностью ключа и акцентировать на нем внимание. Такого делать нельзя;
  12. Спам по слову не более 4%. Распространенная ошибка на большинстве сайтов, когда на каждой странице определенное слово имеет показатель плотности более 4%. Во-первых, текст становится менее читаемый и более водянистым. Во-вторых, не за горами вас настигнут санкции за переоптимизацию.Кстати, 4% - это показатель по странице в целом. Сюда берутся в учет слова с рубрик, различных меню и так далее. Если брать показатель по тексту статьи, то это не более 3%.Показатель плотности слов по тексту я обычно проверяю с помощью онлайн сервиса от Advego по данной ссылке. Переходим, вводим весь текст в поле и проверяем. В пример беру данную статью.

    Как видите, максимальная плотностью слова составляет 3.01 процента. Это можно учесть за норму. Если бы было в пределах 3.5, тогда пришлось бы форматировать текст.

Конечно же это не полный список ошибок, который можно анализировать. Но я перечислил те, которые необходимо проверить в первую очередь.

В комментариях отпишите, пожалуйста, какие ошибки вашего ресурса вы уже можете назвать без проверки. Такие имеются?

Статьи про ошибки оптимизации сайта и ошибки в продвижении я буду продолжать писать и на очереди статья про аудит сайта на ошибки, в которой я покажу, как проанализировать все недочеты проекта с помощью онлайн сервиса.

На этом я прощаюсь и в заключение даю видео по теме.

Пока.

С уважением, Константин Хмелев!

P.S. Не забываем оценивать материал с помощью звездочек ниже, а также своими комментариями. Ну и социальные кнопки само собой)

40 лет Победы51937Украина, Днепропетровская обл., г. Днепродзержинск,+38 093 338 11 41
Комментариев: 16
  • Блин я так и не понял. вот у меня есть статья и в ней я выделил основные моменты через css, а ключевую фразу "химчистка мебели" через strong. Так можно?

    • Нет, нельзя. Выделение тегом strong отдельных ключевых фраз расценивается, как попытка придать значимости ключевым словам. Стоит выделить только важные ключевые мысли страницы целыми предложениями, включая точку на их конце. Но нет цели захватить предложения с ключевыми словами. Выделять необходимо только важные моменты.

      За выделение ключей жирным можно быстро схватить санкции от ПС.

  • Костя, подскажи, если у меня раньше был сайт на joomla, а сейчас я переехал на вордпресс и у меня поменялись все адреса статей. хотя, статьи все остались те же. Я могу настроить перенаправление на данные статьи и не бояться того, что когда поисковик проиндексирует сайт снова, то появится задвоеный, не уникальный контент?

    • Новые адреса попадут в индекс, а старые исчезнут. Это лишь дело времени. Если редирект настроен, то все будет хорошо, остается только ждать.

  • Так же еще вопрос: Если я сначала написал один вариант статьи и поисковик ее проиндексировал, а потом я переделал эту же статью, то как поведет себя поисковик в таком случае? Как он будет реагировать на изменения в данной статье? Например, сначала была просто статья по определенной теме, а потом я ее улучшил, увеличив ее релевантность и прописал или поменял тайтл или заголовок.

    • Если меняется содержимое статьи в лучшую сторону (добавляется, обновляется актуальность информации), то это всегда играет только в лучшую сторону. После переиндексации такой страницы, она только увеличит свои позиции. Единственный нюанс касается изменения URL адреса страницы. Когда старый адрес меняется на новый то автоматически создается редирект со старого адреса а новый, и каждый такой редирект - это затухание. Т.к. был максимальный вес страницы, появился редирект - вес чуть упал. Редиректа 2, еще хуже. Это не столь критично, но при массовом использовании будет не совсем хорошо. Поэтому, нужно относится к построению адреса страницы с первого раза максимально ответственно.

  • По 6 пункту технических ошибок у вас есть какие-либо примеры?
    Или это так: где-то услышали, и написали у себя?

    • Это известный факт, что чем меньше глубина вложенности, тем легче роботу найти такой контент. Зачем ему углубляться непонятно насколько, когда можно сразу увидеть страницы и проиндексировать.

      • Например, для удобства пользователя. Ему будет куда удобнее, если все будет разбито по категориям и подкатегориям, чем если статьи будут иметь вид site.ru/page.html

        • Речь идет не о структуре УРЛ адреса, а о структуре сайта. Если страница будет лежать глубоко на 4м уровне вложенности, роботу будет сложней найти ее, т.е. придется достаточно глубоко закапываться. А, если таких страниц много, то они могут и в индекс попадать достаточно долго. Если мы говорим о структуре адреса, то пользователю все равно, что там в нем написано. Обычный рядовой посетитель не смотрит на адрес, а тем более на его структуру. Поэтому можно там ничего и не указывать, но все же я сторонник, что сделать адрес максимально подробным.

          • А можно сделать для статей вид site.ru/page.html, а для пользователя все разбить по категориям? Или категории должны непременно отображаться в УРЛ?

            (Увы, так получилось, что категории еще поменяются, и из двух зол приходится выбирать меньшее: либо в будущем менять урлы, либо все статьи делать так site.ru/page.html Выбрала второе. Меньшее ли это зло?)

          • В идеале категории лучше оставлять в УРЛ'е. Их отсутствие может повлиять на плохое развитие сайта. Можно рискнуть и убрать, многие сайты так живут. Действительно, второй подход более простой с точки зрения возможности будущего изменения категорий

  • А если у меня самое частотное слово - не ключевое? Это норм? И частота его оказалась 3.6% (против 1.4% ключа).

    И если ключ состоит из нескольких слов, и употребляется в разных формах (красивая синя шапка, в красивой синей шапке и тп, в том числе разбавленным же может быть), то адвего посчитает это за один?

    Или надо просто тупо проверять текст, и смотреть, чтоб ни одно слово не было выше 3%?

    • Не совсем понял, что значит:

      самое частотное слово - не ключевое

      У вас есть группа ключей в ядре, из этой группы статья всегда оптимизируется в первую очередь под главный ключ, который и есть самым частотным, т.к. именно по нему мы заинтересованы получать максимальный трафик. А в большинстве случаев максимальный будет именно по самому частотному ключу.

      Проверяем на вхождение отдельных слов. Тошнота не должна превышать 3%, но есть и индивидуальные ситуации, когда это значение может превышать, например, когда текст не очень большой, но без каких-то слов у никак не обойдешься. В таком случае, при превышении тошноты по слову в нашем тексте, необходимо проверить тексты конкурентов. Если у них это значения превышено, то можно оставить, значит так и получится. Если же у конкурентов все хорошо, а у нас большое значение, то лучше поправить.

      • Я имею в виду, что ключевое слово у меня, допустим "шапка", а статье при проверке на адвего получилось, что самое тошнотное (частотное) - "снег", хотя оно вообще к теме не относится (или почти не относится). Бег него можно обойтись, но так получилось.

        И еще есть пара слов, не относящихся к теме, но встречающихся чаще "шапки". Их тошнота меньше 3%. Но то, что она выше "шапки" - норм?

        • Тут не важно, какое слово самое частотное. Важно, чтобы НИКАКОЕ слово не превышало 3%

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *