Персональный SEO блог


Как побороть алгоритм Panda от Google: 5 ошибок с контентом

06.04.2012 Опубликовано в разделе: SEO

алгоритм Панда GoogleВсем привет! Сегодня, ровно как и в следующем посте будем говорить об алгоритме Panda от Google. Вчера ночью прочитал довольно интересную статью на сёрче, которая перекликается с моим постом и в целом с тематикой внутренних факторов, в частности контента, как основной движущей силы продвижения в 2012 году – “Приведет ли наказание за переоптимизацию Google к «клинической смерти» SEO?“, если есть время рекомендую её изучить, хотя бы бегло.

Мы же сейчас поговорим об основах алгоритма Panda, касаемых внутренних факторов и в большей степени контента. Рекомендации и список составлен на основе выводов ведущих специалистов SEOmoz, т.е данные не взяты мной с потолка, им вполне можно доверить и применять на практике.

Наблюдая за падением многих сайтов после ударов Panda, можно постоянно поражаться тому, насколько ужасно отформатирован контент на этих сайтах даже месяцы спустя. Только некоторые занимались улучшением содержимого на сайте. А большинство веб-мастеров решили, что это просто не стоит затраченных усилий или, возможно, они не знали что делать.

Panda – новый алгоритм от Google

Этот алгоритм основан на действиях специалистов по оценке качества в Google. Поэтому он имеет именно “человеческий” подход к оценке, а не машинный.

Помните, что Panda фильтрует сайты, а не страницы. Так что если определённый процент страниц Вашего сайт низкого качества, то под фильтр Panda может попасть весь сайт. Исправьте положение на большинстве из этих страниц – и сайт восстановится.

Примечание: я просматривал скриншоты сайтов, пострадавших от Panda и заметил у них множество недостатков. Я не хочу указывать пальцем на какие-то конкретные ресурсы и бранить их. Просто хочу сказать, что сайты действительно низкого качества.

1. Низкая уникальность контента

У Вас бывало такое, что зайдя на сайт, Вы спрашивали себя “А где же содержимое? Где то, за чем я пришёл?”. Посмотрите на страницу ниже. Сколько контента присутствует на “первом экране” страницы?

типичный шаблон сайта и алгоритм панда

Эта страница имеет низкое отношение уникального контента к количеству рекламных объявлений. Никто не знает точных цифр, но этот пример явно нарушает все человеческие стандарты.

Например, в том же SEOmoz, максимально допустимый порог уникальности веб-страницы – 95%. Если процент ниже, то страница считается дублем. Стоит задуматься об этом.

2. Пустые страницы

У Вас на сайте есть страницы, созданные только для того, чтобы ссылаться на другие? Я нашёл это страницу на высокоавторитетном сайте faq.org меньше чем за 10 секунд и мог бы найти ещё множество.

пустые страницы контента и алгоритм Panda

Да-да, вот это и вся страница! Для того, чтобы избавиться от штрафов Panda, нужно либо не создавать подобные страницы, либо заполнить их качественным содержимым.

3. Фермы контента

Каждая страница Вашего сайта должна быть посвящена какой-то конкретной теме. Использовать ключевые слова разных тематик на одной странице – большая ошибка.

фермы контента

На скриншоте выше представлена страница из высокоавторитетной фермы контента. Вот такая помойная яма на страницах – одна из основных причин фильтра от Panda. Такие страницы нацелены не на людей, а на поисковых роботов. Хотя бы частично решить проблему можно разбив страницу на несколько, при этом разделив контент по тематикам.

4. Перегруженность рекламными блоками

Я понимаю искушение многих веб-мастеров напичкать страницы своего сайта огромным количеством рекламных объявлений и заработать кучу денег. Однако команда AdWords и команда по борьбе со спамом во главе с Мэттом Каттсом – совершенно разные люди. Вполне очевидно, что они дают совершенно противоположные советы.

adsense и panda

Оптимизировать под AdSense – совсем не значит оптимизировать под поиск. Хотелось бы, чтобы эти две команды в Google работали сообща, предотвращая разочарования веб-мастреов.

5. Сайты со сгенерированным контентом

Если контент на страницах Вашего сайта создан с помощью роботов и без человеческого участия, Google это прекрасно видит и сильно понижает в рейтинге подобные сайты.

Примечание: я не сомневаюсь, что однажды машины смогут производить контент, который будет очень трудно отличить от материала, написанного реальным человеком. Пока такие времена не настанут, избегайте этого.

Создавая сайты, думайте в первую очередь о людях. Если у Вас будет полезный и информативный контент – пользовательские факторы будут на высоте, а показатель отказов минимален.

Возможно у вас есть свои советы по работе с алгоритмом Panda? Вы как-то оптимизировали сайт под новый алгоритм Google?



Комментариев 11

11 комментариев к «Как побороть алгоритм Panda от Google: 5 ошибок с контентом»

  1. Roman пишет:

    Отличная инфа

  2. Сеотоп пишет:

    Ну, по поводу последнего пунта не могу согласиться полностью… Если грамотно к генерации подойти – Гугл ест, проверено на практике.

  3. @ Сеотоп:
    Это дело времени и подключения разных ресурсов. Касаемо рунета, он пока далёк от приоритетов Google.

  4. Pavel пишет:

    Алгоритмы со временем тоже меняются. Так что приходится постоянно проверять… Лучше иметь живой и наполняемый сайт.

  5. Shamoney пишет:

    Столько шума из-за нового алгоритма. Ничего нового я для себя не узнал, итак понятно, что ГС поисковики не любят.

  6. Андрей пишет:

    Согласен, что поисковики не любят ГС. Но уйма народу пострадало от Панды. Причем у многих были СДЛ. Наверное скоро придется, вообще избавляться от рекламы и т.д. и т.п.

  7. Никита пишет:

    Как говорится, чем бы дитя не тешилось – главное что бы не плакало. Это я к тому, что Панда, вполне вероятно только начало и чем дальше тем … Хотя, поживём увидим.

  8. Ансаф пишет:

    панда, пингвин… Главное умело подойти к ним и все будет в порядке!

  9. bob пишет:

    эта панда – просто чушь какая-то а не алгоритм. главное что пенализит за страницы без контента и с повторяющимся контентом. А не трудно было гуглю всех заранее об этом предупредить а не опускать кучу сайтов сразу вниз?

  10. Виктор пишет:

    Администрация Гугла во время введения своего нового алгоритма заявила, что он нацелен только против некачественных сайтов, то есть сайтов, содержащих некачественный контент.

  11. Борис пишет:

    Писать через вебмастер Google  на пересмотр сайт не стоит, так как алгоритм полностью автоматический. После того, как исправите все недостатки нужно будет немного подождать до следующего апдейта .

    Спасибо.

Авторский seo блог заводского трудяги, seo новости и полезная seo информация

Дизайн и создание шаблона