Алгоритм Пингвин от Google

Google ввел новый алгоритм Google PenguinМы все хорошо знаем, дорогие друзья, как поисковые системы корпят над своими алгоритмами, фильтрами и так далее, чтобы как можно четче выдавать простым обывателям сети Интернет то, что они ищут. Но эти самые алгоритмы параллельно проводят и чистку сети от того же спама или некачественных ресурсов, которые всеми правдами или не правдами как-то очутились в ТОПе. «Так дело не пойдет» — как-то так думают умы поисковых гигантов, и в очередной раз с этой мыслью вышли ребята из Google.

Так уже вторую неделю «гудит» вебмастерская часть сети и большинство негодует: «Google ввел что-то с чем-то и эта адская смесь порезала наши позиции, что в свою очередь сократило трафик». Да, действительно, анализируя конкуренцию в интересных мне нишах, я заметил серьезные перемены. Трафик на многих конкурентных ресурсах был срезан на 10, 20, 50, а то и больше процентов. Да что там далеко ходить, посмотрите на некоторые seo блоги, непривычно видеть посещаемость в 150-200 пользователей в сутки.

Итак, что же там нахимичил Google…

В 20-х числах апреля 2012 года в сети появилось сообщение от разработчиков Google приблизительно следующего содержания:

«В ближайшие дни мы запускаем важное изменение алгоритмов, направленных на Webspam. Изменения снизят рейтинги сайтов, которые как мы считаем, нарушают требования Google к качеству сайтов»…

В ночь с 24 на 25 апреля был введен новый алгоритм Google – Google Penguin (Гугл Пингвин). Любовь к животным Google вызвала много шума. На том же Серче образовалось несколько тем с огромным общим числом страниц (более 500) обсуждения нового алгоритма Google Penguin. Недовольных как всегда оказалось значительно больше, чем довольных, ведь довольные тихо сидят и не палят свои наработки, которые только на «Ура» съел Гугловский Пингвин.

Давайте для начала ознакомимся с теми самыми основными требованиями к качеству сайтов, которые выдвигает Google:

  1. Не используйте скрытый текст и скрытые ссылки. Google, да и не только Google, давно идут под флагом человеколюбия. То, что не видит человек, понимается и воспринимается поисковиками как попытка повлиять на выдачу поиска, а это сравнимо с манипуляциями и пресекается в виде песимизации или еще какой «порчи». Помнится, одно время был очень модным скрытый текст, еще бы, ведь он давал эффект. Черный текст на черном фоне с оптимизацией определенной, ты попадал на страницу и недоумевал, а где то, что показывал поисковик.
  2. Не используйте клоакинг или скрытую переадресацию. Не нужно пытаться выдавать поисковому роботу одну информацию, а пользователю другую. Контент должен быть единым для всех. По поводу переадресации, то тут любителей сорвать денежку с перенаправления или продажи мобильного трафика, Google решил немного разочаровать.
  3. Не отправляйте автоматические запросы в Google.
  4. Не перегружайте страницы ключевыми словами. Этот принцип уже давно поддерживался Яндексом и позиционирование против переоптимизированности сайтов явно убивало работу приверженцев напичкать сайт ключами. Если раньше можно было напичкать статьи ключами и радоваться трафиком с Google, то теперь, как видите и сами понимаете, не все так просто. Но тут же не стоит забывать про пользовательские факторы или так называемые поведенческие факторы. Если они на хорошем уровне, то даже легкая переоптимизированность не проблема, ведь поведенческие факторы пользователей всегда были, есть и скорее всего, будут в приоритете. Только здесь уже все несколько сложнее – сами представьте, что нужно дать и в каком объеме, чтобы эти самые поведенческие факторы были на высоте. Это говорит о том, что контент действительно должен быть высокого уровня и интереса, а не легенький рерайт с конкурирующего сайта или лидера ниши.
  5. Не создавайте страницы, домены и поддомены, которые в значительной степени повторяют содержимое основного сайта или любого другого. В этом пункте гугловцы сразу соединили воедино свои взгляды по поводу аффилированности, сеток сайтов, дорвеев, копипаста, а также рерайта низкого качества.
  6. Не создавайте вредоносных страниц, таких как фишинг или содержащих вирус, троянов или другого вредоносного программного обеспечения. Этот пункт не стоит вообще как-то разжевывать, бой вирусам одним словом.
  7. Не создавайте дорвеев или других страниц, созданных только для поисковых систем.
  8. Если ваш сайт работает с партнерскими программами, то убедитесь, что он представляет ценность для сети и пользователей. Обеспечьте его уникальным и релеватным содержимым, что в первую очередь будет привлекать пользователей к вам.

Эти 8 принципов Google выделил как основные. Но так же есть и еще 4, которые особо отмечены были ими же:

  1. Создавайте страницы сайта в первую очередь для пользователей, а не для поисковых систем. Не используйте маскировок или других схем работы с сайтами, будьте предельно прозрачны.
  2. Не пытайтесь хитростью повысить рейтинг сайта в поисковых системах.
  3. Не участвуйте в схемах построения ссылок, разработанных для повышения рейтинга вашего сайта в поисковых системах или Google Page Rank. В частности, избегайте ссылок спам-вида, на линкпомойках или плохих соседей по серверу (обращаю ваше внимание на анализ и просмотр соседствующих сайтов, если ваш сайт размещен на обычном шедер хостинге).
  4. Не используйте не разрешенные программные решения для автоматического обращения к Google. Сами разработчики выделяют такие как WebPosition Gold ™.

Я бы мог продолжить и дальше перечислять эти постулаты работы под Google, но зачем, ведь вы и сами можете ознакомиться со всеми ими здесь, я лишь обратил ваше внимание на основные.

Но все вроде бы и раньше было известно всем, кто интересовался вопросом.

В работе нового алгоритма Google Penguin (Гугл Пингвин) меня удивило четкое соблюдение принципа «заряженности рекламой» первой страницы. Помните, говорилось о том, что первая страница (главная страница) не должна быть перегружена рекламой. Google Penguin четко начал соблюдать этот принцип. Он порезал трафик у сайтов с несколькими большими блоками рекламы на главной, даже если эти блоки были своей же – реклама Google Adsense. 🙂

 

 

Наблюдения по работе Google Penguin

Содержание

Теперь хотелось бы перечислить ряд собственных наблюдений. Я понимаю, они приблизительны, и представляют мои личные наблюдения и данные (показатели могут быть восприняты как относительные), но они имеют место быть, и имеют право на существование. Анализировал я работу 20 сайтов, как своих, так и своих партнеров. Анализ занял у меня 3 дня, и я оценивал массу показателей. Как вы понимаете, все сайты продвигались разными схемами и по разным алгоритмам, имели разные абсолютно показатели, что дало возможность сделать ряд выводов.

 

1. Точное вхождение. Если раньше, чтобы быть в Google в шоколаде, нужна была масса точных вхождений, то теперь с Google Penguin (Гугл Пингвин) все в точности также да наоборот. Это быть может как раз и есть та самая борьба с Webspam. Яндекс давно любил разбавления анкоров, вот дело дошло и до Google.

  • страницы с внешними ссылками точного вхождения 100% — просадка составила 75-90%. Среднее падение примерно на 38 позиций;
  • страницы с внешними ссылками точного вхождения 50% — просадка составила 15-20%. Среднее падение примерно на 9 позиций;
  • страницы с внешними ссылками точного вхождения менее 25% — замечен рост 6-10%. Средний подъем 30 позиций.

Исходя из этих данных, я сделал вывод – разбавляем анкоры и разбавляем как можно интереснее и глубже.

Яркий пример – запрос «gogetlinks» на данном блоге. Точные вхождения значительно преобладают над разбавленными, и вот результат:

Статистика Google по запросу Gogetlinks

 

2. Покупка временных ссылок. Временные ссылки я покупал на добивку или быстрый результат на всех анализируемых ресурсах и с разных систем. Это были и Sape, Webeffector, Seopult и ROOKEE.

Генераторы автоматического продвижения Webeffector и ROOKEE дали приблизительно одинаковые результаты. Просадка практически не замечена вообще, лишь небольшая на Webeffector, но она незначительна и больше связана с разбавлением анкоров. В остальных моментах даже рост наблюдается, что там говорить, вот скриншот кампании (кликабельно):

Google penguin и система webeffector

Что же касается Sape, то здесь совсем другая картина. Просели все проекты, на которые покупались ссылки в Sape. Все запросы, которые двигались в этой бирже улетели из ТОП 100 и даже собирать статистику, куда же они там улетели, стало как-то напряжно, что в итоге я делать и не стал.

Анализируя воздействие Гугл Пингвина на продвижение с Sape, сделал вывод, что расстановку ссылок этой биржи Google воспринимает теперь как не естественную.

Ссылки в Sape

 

Здесь начал активно снимать ссылки. Но смысл приводить свои примеры, когда можно показать вам яркие и из нашей же ниши. Возьмем блог моего товарища — Сергея Радкевич upgoing.ru. Человек работал с Sape несколько месяцев и радовался росту трафика, пока не пришел Гугл Пингвин. Смотрим:

Статистика посещаемости блога upgoing

 

Тут же стоит посмотреть на график источников поискового трафика:

Статистика поискового трафика

 

Как видите, Гугл Пингвин снизил трафик с Google в 7 с лишним раз.

Вывод по этому пункту, что все же какие-то фильтры нужно применять при работе с временными ссылками и какие-то алгоритмы простановки и закупки. Автоматические сервисы как раз работают по определенным схемам в отличие от той же Sape. Результаты на лицо, между прочим.

У сайтов с Seopult вообще намечен рост позиций. Здесь я применял алгоритм Seopult Max для Яндекса, но как вижу, теперь он работает и с Google.

 

3. Переоптимизированность контента. Здесь замечен также спад, но не такой значительный как у предыдущих параметров. В пределах 10 позиций потеряло всего 10-15% переоптимизированных статей.

Здесь я делаю вывод, что не так страшно слегка переоптимизировать, давая себе какие-то гарантии. А более низкий показ можно нагнать с помощью покупки ссылок.

 

4. Вечные ссылки. Запросы, продвигаемые вечными ссылками с нормальным и естественным видом, только серьезнее прибавили в выдаче. Некоторые ВЧ ВК повылазили в ТОП 20 без каких-либо манипуляций, за счет заметного падения большей части конкурентов. Здесь я очередной раз делаю вывод, что моя работа по направлению продвижения ТОЛЬКО вечными ссылками правильна.

 

vovka.su

Принцип работы

Гугл  «Пингвин» с 2014 года работает в режиме реального времени, но только с 2016 года база не обновляется вручную. Если раньше нужно было ждать апдейт, что могло растянуться по времени, то сейчас из-под фильтра можно выйти буквально сразу после исправления и переиндексации.

Санкции в виде понижения в ранжировании распространяются на отдельные страницы, а не весь сайт в целом.

Как определить, что сайт под фильтром

Признаки:

  • проседание позиций на 30–50 пунктов;
  • значительное снижение трафика из Google.

Если ограничение наложено в результате ручной проверки, в Search Console в разделе «Меры, принятые вручную» можно увидеть сообщение о санкциях за веб-спам.

При автоматическом назначении уведомления нет. Чтобы выяснить, пострадал сайт от Гугл «Панды» или «Пингвина», нужно проверить тексты и входящие ссылки. Если проблема в контенте, это «Панда», если видны плохие бэклинки, «Пингвин».

Как вывести сайт из-под фильтра

Сайт понижается в выдаче из-за некачественной ссылочной массы, поэтому нужно провести аудит покупных ссылок и снять спамные, с сателлитов, нерелевантных ресурсов, линкопомоек и т. д. Одновременно стоит увеличить количество естественных ссылок.

Причиной попадания под фильтр Google Penguin может стать:

  • обилие спамных анкоров. Если большая часть анкор-листа – прямые вхождения продвигаемых коммерческих запросов, риск очень высок;
  • плохая динамика роста ссылочной массы. Резкие скачки, массовые съемы говорят о неестественности;
  • несоответствие тематик донора и акцептора. Чем выше релевантность, тем естественнее выглядит размещение;
  • спамная простановка бэклинка (цветом фона, мелким шрифтом, однопиксельной картинкой, в неподходящем месте и т. д.);
  • заспамленность донора. Если со страницы или с сайта в целом ведет много исходящих ссылок, это вызывает подозрения в продаже;
  • низкое качество ссылающихся сайтов. Понимается в широком смысле.

Все выявленные некачественные бэклинки нужно снять или отклонить с помощью специального инструмента в Search Console.

На снятие ограничений в ранжировании из-за Google «Пингвина» может уйти от недели до нескольких месяцев.

Как защититься

Чтобы использовать ссылки, не опасаясь Google Penguin, нужно:

  • обязательно разбавлять анкор-лист, чтобы были не только прямые и разбавленные вхождения ключей, но и анкоры типа «тут», «здесь» и т. д.;
  • обеспечивать плавный прирост ссылочной массы;
  • контролировать соотношение покупных и естественных ссылок;
  • стремиться к разнообразию доноров, чтобы не было неестественно много бэклинков с одного ресурса;
  • проставлять ссылки на разные страницы сайта, а не только на главную;
  • следить за качеством каждого донора.

Лучший способ уберечься от риска попасть под Гугл «Пингвин» – повышать качество ссылок, а не на их количество.

wiki.rookee.ru

алгоритм Пингвин Добрый день, уважаемые читатели и гости LediSeo? Вряд ли кто из Вас будет со мной оспаривать то, что поисковые системы постоянно усложняют жизнь оптимизаторам и вебмастерам. Раньше продвижение сайта было гораздо проще в Яндексе – прикупил ссылок с различными анкорами, обменялся постовыми, разместился на досках объявлений – и вот ты в топе. Но после того, как многоуважаемый Yandex затеял игру в города, все вновь вводимые поисковые алгоритмы носили название города (Арзамас, Краснодар), с помощью которой решил оставить в поисковой выдаче только качественные сайты – жизнь простого сеошника изменилась и пришлось находить способы чтобы не попасть в немилость у Яши и остаться на плаву, а кто то решил сделать основной упор на продвижение в Google. Еще год назад оптимизировать сайт под него было проще простого, но в феврале 2011 года он решает тоже начать борьбу с некачественными сайтами и предоставить пользователям получать только полезную информацию вводит в действие знаменитый алгоритм Панда, который в свое время наделал много шума, да и сейчас с удовольствием съедает новые неугодные сайты. Казалось бы, на этом стоит остановиться, но Гоша продолжил борьбу с некачественными сайтами и решил нас “порадовать” новым питомцем и выпустил на свет 24 апреля нового зверька из Антарктиды, алгоритм Пингвин, такого же непонятного, как и сам мир вечного холода. Может поэтому до сих пор и неясна вся логика его действий, но думаю, Вы уже ощутили его на своих ресурсах в той или иной степени. Поэтому давайте разберемся, что же это такой за зверь Пингвин и что от него можно ожидать и самое главное как приручить.

Еще по теме:   Как сделать Google Chrome темным?

С конца апреля среди оптимизаторов и вебмастеров происходит нешуточный переполох, связанный с ведением поисковой системой Google нового алгоритма Пингвин (Google Penguin), в задачу которого входит зачистка поисковой выдачи от ресурсов с некачественным материалом, с переотимизированными текстами, с огромным количеством не релевантной рекламы, то есть под прицел этой маленькой птички попадут те сайты, которые как считает Гоша, не содержат на своих страницах полезной информации для пользователей, которые он будет в результате своей работы в лучшем случае понижать в поисковой выдаче, а в худшей вообще из нее исключать.

А затем последовавший 3 мая апдейт pr, в результате которого многие ресурсы прогнулись. Хоть для многих данный параметр и не является существенным показателям, но согласитесь, все равно не очень весело тем кто его потерял только из – за того, что очень много внешних ссылок на сайте.

Наблюдая за тем, что сейчас происходить, появление нового зверька вызвало шоковое состояние у многих оптимизаторов, так как их сайты начали терять топовые позиции по многим ключевым запросам в Гугл, а отсюда и уменьшение посещаемости. Некоторые ресурсы просели на 50 %, а кто то и больше. В итоге многие потеряли приличные суммы денег, которые были потрачены на продвижение по тому или иному запросу.

Итак, что же такое выдумал Google, чтобы начать борьбу с ГС…

Разработчики не раскрывают секретов работы алгоритма Пингвин до сих пор, они единственно в конце апреля выпустили небольшой релиз в сети, следующего содержания:

В ближайшие дни мы запускаем важное изменение алгоритмов, направленных на Webspam. Изменения снизят рейтинги сайтов, которые как мы считаем, нарушают требования Google к качеству сайтов

В это же самое время Мэтт Каттс, один из представителей компании Гугл на пресс конференции говорит:

А теперь, что касается людей жестко оптимизирующих свои сайты и проделывающих большую работу по SEO. Обычно мы не анонсируем изменений заранее, но в последние несколько месяцев мы усердно работаем и надеемся выпустить обновления в ближайшие несколько месяцев или недель. Мы пытаемся выровнять немного игроков рынка. Эти люди много усилий прилагают к SEO, вместо того, чтобы делать хороший контент или улучшать сам сайт. Мы делаем бота Google умнее, релевантность выдачи лучше и наблюдаем за теми, кто злоупотребляет релевантностью, используя множество ключевых слов на странице, обмениваясь множеством ссылок или выдавая не то, что вы ожидаете увидеть. Сейчас над этой задачей работает несколько инженеров.

Получается, что алгоритм Пингвин призван на борьбу с черным сео и ресурсами, которые не соответствуют требованиям качества Гоши. Из всех требований, предъявляемых Google к блогам и сайтам, можно выделить несколько самых основных:

  • Нельзя использовать скрытые ссылки или текс, влияющие на позиции в выдачи. То есть поисковый робот Гугл должен видеть тоже самое что и посетитель сайта. Некоторые “умельцы” умудрялись на страницах так скрыть текст, что посетитель попадая на нее из поисковой выдачи удивлялся, а где то что он хотел увидеть.
  • Нельзя использовать клоакинг.
  • Не следует злоупотреблять ключевыми слова в материале. Этому принципу уже месяцев шесть придерживается Яндекс, объявив войну с переоптимизацией, чего нельзя было сказать о Гугл.
  • Не следует создавать страниц, содержащих вирусы, фишинг, вредоносных кодов.
  • Размещаемая информация на сайте должна представлять определенную ценность и быть полезной для пользователей.
  • Не создавайте различных схем построения ссылок, которые позволят повысить рейтинг сайта.

Из всего этого можно сделать простой вывод, который был понятен давно – следует делать сайты только для людей, не стоит перенасыщать материал ключевыми словами, различными баннерами и рекламой, использовать не только коммерческие анкоры, но и естественные. То есть делаем сайты удобными для наших посетителей и все будет замечательно.

Пингвин наступает

Прошло три недели с внедрения алгоритма Пингвин в жизнь и если Вы заметили, что посещаемость упала и снизились позиции сайта, именно после 24 апреля, то это результат действия нового зверька от Гугл. На своем блоге я не заметила резкого падения посещаемость с Гоши, естественные сезонные колебания.

график трафика с поисковых систем на lediseo

Но если все же Пингвин пошел в атаку на Ваш сайт, то прежде всего не надо паниковать и сломя голову мчаться и исправлять все ошибки. Это только усугубит ситуацию. Необходимо разработать простой, но действенный план по постепенному удалению вредных внешних ссылок, особое внимание уделить:

  • продажным ссылкам
  • ссылкам, расположенным в футере с коммерческим анкором
  • сквозным ссылкам с коммерческим анкором в сайтбаре

Исправив все, дожидаемся апдейтов и если ситуация не изменяется можно написать петицию Гугл против Google Penguin здесь. Написав претензию еще не факт, что что – то измениться, но сидеть сложа руки и лить горючие слезы не стоит, надо предпринимать любые действия, даже можно обратиться и к разработчикам алгоритма Пингвин.

Что – то более конкретно по новому алгоритму Пингвин говорить пока еще очень рано, но нас можно сказать предупредили, а предупрежден значит вооружен. Да и делать теперь ресурсы ради быстрого заработка в интернете смысла не будет, только качественные сайты смогут попасть в поисковую выдачу.

Ну вот пожалуй и все на сегодня. Как бы сложно не было, но придется подстраивать под нового зверя от Гугл. И на последок хочу предложить Вам посмотреть урок Ренда Фишкина о значении pr.

[youtube]dvIDas6u4gM&feature=player_embedded[/youtube]

Вот теперь точно всё. Всем удачи , пока – пока.

С уважением, Отчаянная

www.lediseo.ru

История разработки алгоритма Пингвин

Google Penguin вышел в мир в апреле 2012 года. В течение следующих двух месяцев он дважды обновлялся, разработчики корректировали первую версию фильтров. Вторая версия алгоритма появилась почти через год, обновленный Пингвин действовал уже тоньше и учитывал не только уровень ссылочного спама, но и общий уровень страницы.

Осенью 2014 года алгоритм вновь был обновлен. Надо сказать, что в тот период он действовал таким образом, что попавшим под его фильтры сайтам приходилось после коррекции долго дожидаться выхода очередного обновления, чтобы вновь пройти проверку. Ситуация изменилась в 2016 году, после выхода Google Penguin 4.0, который действовал в режиме реального времени и обновлялся непрерывно. Последние версии алгоритма действуют предельно мягко – учитывается уровень сайта, качество страниц, а некачественные ссылки аннулируются без отправки всего сайта в бан.

За что наказывает Google Penguin

Специалисты полагают, что алгоритм Пингвин должен дополнять алгоритм Google Панда, отвечающий за проверку контента сайтов. Чтобы ваш ресурс не попал под фильтр Google Пингвин, необходимо внимательно работать с внешними ссылками на сайт и избегать того, что специалисты называют манипулированием ссылочной массой. Основными способами такого манипулирования считаются:

  • «Торговля» ссылками, когда владелец сайта за деньги или другую плату публикует на своем ресурсе ссылки на чужие сайты.
  • Явно искусственный обмен ссылками, когда сайты ссылаются друг на друга из-за сговора владельцев, а не из-за качества контента.
  • Использование на сайте большого количества текстов, в которых много «притянутых за уши» анкоров и ключевых слов.
  • Использование сервисов, которые автоматически генерируют ссылки на сайт.
  • Наличие на сайте ссылок, имеющих в анкоре прямое вхождение ключевиков.
  • Использование сквозных ссылок с анкором-ключевиком в сайдбаре и футере сайта.
  • Комментарии к материалам сайта со ссылками на спам-ресурсы.
  • Чрезмерное количество контекстной рекламы на главной странице сайта.

За применение таких недобросовестных ссылочных схем фильтр Гугла Пингвин быстро и надежно «уронит» ваш сайт на много страниц в выдаче. Более того, вам будет очень непросто вернуть занимаемые позиции, поскольку проверка сайта Google Penguin выполняется всего лишь дважды в год.

Как узнать, что Google Penguin применил санкции

В отличие от алгоритма Google Panda, работающего только в автоматическом режиме, Пингвин используется и при ручной модерации. Если вы обнаружили резкое падение трафика, зайдите на Google Webmaster Tools, в раздел «Меры принятые вручную» и проверьте, нет ли там сообщения от модераторов.

Если письмо есть, вам останется только исправить указанные в нем недочеты и отправить запрос о новой проверке.

Однако чаще всего алгоритм срабатывает автоматически. В этом случае стоит зайти на Moz.com и проверить, не было ли недавно обновлений Пингвина. Если обновления были, значит, диагноз установлен верно, и пора приступать к «лечению» сайта. Выявить это соответствие можно также с помощью сервиса PenguinTool, с сайта Barracuda. Правда для этого вам придется дать сервису доступ к своему аккаунту в Google Analytics, чтобы он сравнил период падения трафика и время выхода нового обновления. Результат сравнения поможет понять, попали вы под фильтры Пингвина или нет.

Что делать? если Google Penguin вас поймал

Если вы попали под фильтры этого алгоритма, то самое худшее, что можно сделать – начать панически удалять все ссылки. Этим вы окончательно погубите ресурс.

Сайту, который поисковая система сочла некачественным, нужна спокойная и вдумчивая санация. Сама компания Google предлагает набрать ссылочную массу заново, не спеша, естественным путем и в основном за счет создания уникального контента.

Первое, что нужно сделать для выхода из-под фильтра – проанализировать ссылочный профиль ресурса. Вам надо будет понять, какие ссылки идут с качественных сайтов, то есть с полезных, интересных и посещаемых, а какие со спамных. Сделать это можно с помощью сервиса Majestic SEO. Ссылки на спамные сайты (внутренние ссылки) надо нейтрализовать с помощью запретов noindex и nofollow, которые закроют «плохие» ссылки от индексации и заблокируют переходы по ним. Чтобы убрать внешние ссылки, вам надо будет использовать сервис Google для отклонения ссылок. Сервис называется Disavow Links, внесенные в него ссылки Пингвин Google просто не учитывает.

Второй шаг – смена анкоров ссылок. Ее выполняют двумя способами. Первый состоит в том, чтобы поменять ссылку на безанкорную, но сделать это может только опытный web-мастер. Второй способ состоит в наращивании ссылочного профиля за счет появления новых безанкорных ссылок.

Третьим шагом вам надо расширить базу ссылочных доноров, то есть позаботиться о том, чтобы ссылки шли из разных источников: с форумов, из социальных сетей, из каталогов, из блогов и средств информации, вроде интернет-журналов и новостных порталов. Полная санация сайта и выведение его из-под фильтров обычно занимает 3-4 месяца.

Чтобы не попасть под фильтры Google Penguin, надо привлекать только качественные ссылки, поддерживать постоянную динамику роста ссылочного профиля и не использовать в ссылках прямые анкоры. Качественный контент и естественное наращивание ссылочной массы из разных источников защитят вас от санкций поисковой системы лучше любого специалиста.

semantica.in

Уже довольно долгое время Google ведет беспрецедентную кампанию за чистоту поисковой выдачи – против низкокачественных сайтов и ссылок. Несмотря на то, что дело это хорошее, последние действия поисковика уже не одного вебмастера поставили в тупик. Люди просто не понимают, почему прекрасно работавшие раньше «традиционные» методы интернет-маркетинга и поисковой оптимизации (SEO) сегодня действуют против них. Дошло до того, что некоторые специалисты прямо обвиняют Google в непоследовательности. Ведь поначалу поисковик не преследовал за те приемы наращивания ссылочной массы, из-за которых сегодня терпят крах множество успешных проектов. Google просто «не рекомендовал» их использование. Теперь же он «перешел от слов к делу».

Тем не менее, взгляды Google на то, какими качествами должны обладать ссылки, известны вебмастерам уже не один год. И если кто-то сегодня попал под его санкции, то винить в этом, по мнению поисковика, нужно только себя. Тем более что все это время Google производил существенную модернизацию, каждый шаг которой служил четким сигналом к предстоящим событиям.

Пингвин google

Как бы то ни было, Google сегодня предъявляет определенные требования к веб-сайтам и ссылочной массе, с помощью которой они продвигаются в поисковой выдаче. Алгоритм Пингвин 2.0 со всеми апдейтами, служит мощным инструментом, способным качественно выявлять «плохие» ссылки, поэтому сейчас гораздо актуальнее рассуждать о том, как работать в этих условиях, а не жаловаться на несправедливость. Итак, видение Google, какими должны быть ссылки, ведущие на сайт, известны давно: в первую очередь они должны быть естественными.

Естественность — является главным требованием к ссылкам и фундаментальным принципом PageRank. Наращивание естественной (не платной) и только естественной ссылочной массы является залогом успеха в продвижении вверх по лестнице органической выдачи. Свой сайт нужно организовывать и развивать таким образом, чтобы сторонние ресурсы ссылались на него по собственному желанию. Другими словами, успех кроется в повышении репутации ресурса.

Пингвин google

Вот что говорит об этом Мэтт Каттс, ведущий инженер и один из самых влиятельных специалистов Google: «Предпринимая действия, направленные на повышение вашей собственной репутации, вы находитесь на правильном пути. Этим вы подаете именно те сигналы, которые мы стремимся услышать, и которые представляют наибольшую ценность в любом случае».

Исходя из сказанного выше, можно определить четыре проблемы, которые могут возникнуть на пути создания качественной ссылки:

Инфографика

Использование инфографики должно быть грамотным и осторожным. По мнению Каттса, большинство вебмастеров просто не умеют пользоваться этим инструментом себе во благо. Внешняя привлекательность инфографики кажется им настолько высокой, что они даже не задумываются над ее оптимальным использованием. Инфографика, в применении такими мастерами, во многих случаях не точна или же тематически никак не связана со страницей, на которую она ссылается.

Ссылки внутри гостевых постов

Присутствие спама в ссылках гостевых постов тщательно отслеживается. Авторитетные ресурсы просто не позволяют оставлять комментарии или посты со спамными ссылками на свой сайт. Если спам все-таки как-то просочится, будучи незамеченным администрацией, то в глазах Google такой сайт автоматически потеряет весь свой авторитет. Тем более что алгоритмы Пингвина 2.0 позволяют вовремя обнаруживать и пресекать такие действия.

Еще по теме:   Как создать учетную запись в Google Play?

Google справедливо считает, что присутствие спамных ссылок в комментариях и постах свидетельствует об отсутствии должного контроля за публикациями на сайте. Такой контент лишается изначальной информативности, а смысл публикаций в некоторой степени искажается. Все это, по мнению поисковика, свидетельствует о низком авторитете сайта и о возможной продаже с него ссылок. Как следствие, спамная ссылка, оставленная на таком сайте, однозначно способна сработать во вред.

Пингвин google

Тематика гостевых постов и комментариев

Однозначное несовпадение тематики гостевых постов и комментариев, с включенными в них ссылками, с тематикой страницы, на которую они ведут, — также является рискованным. В качестве иллюстрации здесь будет уместно привести следующий пример: Предположим, ваш бизнес заключается в продаже гольф-каров. У вас получилось написать весьма достойную статью о лучших полях для гольфа на Бермудских островах для некоего сайта. Вы не создали ни одной спамной ссылки в теле статьи, однако в атрибуции внизу вы все же использовали выражение «гольф-кары премиум» со ссылкой, ведущей на ваш сайт.

С точки зрения Google, значение такой ссылки будет низким, а стандарты размещения публикаций на таком сайте окажутся сомнительными. Разрешение же установки данной ссылки больше похоже на оплату, чем на законное одобрение. Со всеми вытекающими последствиями.

Знак премии

Знаки премии также можно отнести к приемам, которых следует избегать. Они прекрасно работали раньше, но сегодня ими пользуются только наименее авторитетные ресурсы. По крайней мере, именно таковыми их считает Google.

Список приведенных выше примеров можно было бы смело дополнить еще десятком-другим рекомендаций о том, что следует и чего не следует делать, добывая естественные ссылки на свой ресурс. Например, можно было бы рассказать о негативном отношении алгоритмов Google к сайтам, переполненным ссылками в нижней и правой частях страниц, ссылками на иностранных языках, ссылками на рынки, к которым товар, представленный на сайте никак не относится, и т.п. Однако, все они так или иначе сводятся к главному посылу Google: ссылка должна быть естественной.

Как определить, является ли ссылка хорошей?

В свете новой политики Google, большинство вебмастеров просто обязаны провести ревизию ссылочной массы своих проектов. Чем же им руководствоваться? Специалисты рекомендуют просто ответить на несколько вопросов:

1. Останется ли для сайта значимой ссылка, если Google перестанет существовать?

Априори, любая ссылка является хорошей только в том случае, когда имеет значение вне зависимости от существования поисковых систем. По крайней мере, Google утверждает, что ему «нравятся» именно такие ссылки.

К примеру, готовы ли вы потратить 2 часа своего времени и $200 в виде расходов на покупку множества ссылок, если будете знать, что поисковик останется к этому шагу индифферентным?

2. Если клиент потребует, показать ему случайную выборку ваших ссылок, вы сможете это сделать безо всякого смущения?

Если не получается однозначно положительно ответить на этот вопрос, то ссылки, за которые «может быть стыдно» перед клиентом, следует удалить.

Кстати, хорошим вариантом предложенного выше вопроса, является вопрос: «смогли бы вы с гордостью продемонстрировать свою работу детям?».

3. На самом ли деле ресурс, предоставляющий ссылку, одобряет ее?

Если нет, Google отправит ее «в топку» тотчас после обнаружения. Это же относится к приведенным выше примерам с инфографикой и премиальными значками, а также к блогам. В алгоритмы Пингвина 2.0 заложена модель, описывающая платные и подозрительные ссылки. Если линк хоть немного отвечает ее параметрам, Google отнесется к нему безжалостно.

4. Пытаетесь убедить себя, что ссылка является хорошей?

И совершенно зря! Просто потому, что хорошая ссылка не может быть предметом для оправданий: она видна сейчас и сразу, безо всяких оправдательных аргументов.

Резюме

Если ответы на поставленные выше вопросы вызвали какие-то затруднения, то лучшее, что можно сделать – начать исправляться прямо сейчас. Не нужно ждать следующего апдейта Пингвина и следующей волны наказаний за исходящие ссылки, надо начинать уже сегодня ставить бизнес на долгосрочную и прочную основу.

Начинать же работу следует с ликвидации «плохих» ссылок и создания «хороших». Безусловно, в некоторых случаях это может оказаться тяжелым решением. Ведь бизнес уже налажен, ссылки пока еще работают, а их потеря может вызвать резкое падение рейтинга. Однако, надо учитывать, что спустя какое-то время Google все равно обнаружит их обязательно. И проблем тогда будет несоизмеримо больше.

Спрятаться же от новых правил игры не удастся никому, – слишком уж солидные инвестиции вкладывает Google в свои алгоритмы.

Источник: SearchEngineWatch

Перевод Георгия Стуруа

www.searchengines.ru

Google Пингвин

Впервые имя этого фильтра (Гугл Пингвин) прозвучало в апреле 2012 года, а в начале мая пришел и первый апдейт, и, как итог: позиции большинства сайтов упали. Алгоритм выполняет те же задачи, что и другие алгоритмы и фильтры. Задача же проста — очистка поисковой системы от некачественных ресурсов.

Гугл Пингвин

Получить наказание от Google Penguin можно за следующее:

  • Чрезмерная насыщенность ключами для внутренних и внешних ссылок;
  • Использование копированного материала (касается даже тех, у кого украли);
  • Спам в каталогах и блоках некачественными статьями;
  • Использование доменов, которые точно совпадают с продвигаемыми ключами;
  • Переоптимизация страниц на сайте (большое количество ключей при создании текста и мега-тегов).

В общем, новый алгоритм теперь глубже сканировать и намного лучше разбираться в качестве ресурса. Необходимо учесть и еще один момент — это реклама на ресурсе. Перенасыщенность рекламой главной страницы, ведет к потере позиции в выдаче, Пингвин в этом преуспел.

Google Панда

Для тех, кто еще не слышал о таком фильтре, сделаем небольшой экскурс в историю. Он появился весной 2011 года и моментально по Сети понесся шум.

Фильтр Гугл Панда преобразил результаты поиска: многие сайты получили повышение, а довольно много — упало. Буквально за несколько апдейтов выдача была сильно изменена. Что происходит, многим было не понятно, но вскоре на блоге SEOmoz были освещены некоторые аспекты.

Гугл Панда

Вероятные причины попадания под Панду:

  • Копипаст;
  • Маленькое количество контента на странице;
  • Бесполезный материал;
  • Переоптимизированный контент;
  • Слишком большое количество рекламы на странице.

Фильтр непредсказуем, Google Панда постоянно обучается и как он поведет себя в будущем предсказать сложно. Единственное можно добавить по переоптимизированному контенту. Плотность ключевых слов не должна составлять больше 5 — 6%.

Если на сайте присутствуют страницы с плотностью более 10%, то они могут тянуть на дно весь ресурс. Главное создавайте сайт не для поисковых ботов, а для людей и проблем с Пандой не возникнет.

Другие фильтры Google

Google Domain name Age Filter — молодой домен, на котором располагается ресурс заслуживает маленького доверия у поисковиков, поэтому сайт низко располагается в поисковой выдаче.

Google Sandbox — это фильтр для новых ресурсов. К новым сайтам доверие отсутствует, что касается конкурентных запросов, то такие ресурсы находятся далеко в поисковой выдаче.

Over Optimization Filter — большая насыщенность сайта заголовками (тег Н), повторений ключевых фраз и жирного текста (теги b, strong).

Google’s Omitted Results Filter — пропущенные результаты. Дублирующийся материал, мало входящих ссылок, маленькая внутренняя перелинковка страниц.

Page Load Time Filter — долгое время загрузки, большой объем страницы, насыщенность рекламой и скриптами, страница не индексируется и как итог — понижение в поисковой выдаче.

Google Bombing — данный фильтр накладывается, если на ресурс ведет большое количество ссылок с одним и тем же описанием.

Too many pages at once Filter — накладывается на сайты на которых число новых страниц увеличивается не по дням, а по часам. Полезного материала сразу много не бывает.

Google -30 — применяется к ресурсам, на которых используются редиректы и дорвеи при помощи javascript. Ресурс опускается на 30-позиций в поисковой выдаче.

Фильтры Яндекс: АГС

Тяжелое орудие Яндекса — фильтр АГС направлен на борьбу с сателлитами, поскольку в последнее время они буквально заполонили Сеть и не приносят пользы посетителям. Выстрел по сайту, это еще не бан, но довольно серьезный удар по ресурсу.

Фильтр Яндекс АГС

Вылетают почти все страницы, в большинстве случаев остается одна морда сайта. Первопричиной попадания под выстрел считается отвратительный контент: плохой рерайт, синонимайз, машинный перевод и т.д. Сателлит то пропадает из выдачи практически весь и надолго, то вновь возвращается на кроткое время. Стоит АГС привязаться к ресурсу один раз, он от него не отвяжется.

Переоптимизация — работа данного фильтра направлена против злостных оптимизаторов. Начинает он работать, если находит частое использование ключевых фраз. В настоящее время для оптимального продвижения достаточно в статье упоминать ключевую фразу пару раз.

Аффилированные — для попадания в бан, достаточно пары сайтов расположенных на одном хосте и их продвижении по одинаковым ключевым запросам.

Непот фильтр — применяется к сайтам, использующим большое количество ссылочного спама, да еще неестественного: перестают учитываться внешние ссылки, и их продажа бессмысленна.

Потеря позиций — фильтр говорит сам за себя. Сайты наказываются за чрезмерное размещение ссылок на другие ресурсы.

Ты последний — применяется к сайтам, дублирующим сторонний контент. наказание ужасное — опускание сайта на «тысячные» позиции в выдаче.

Пессимизация — сайт попадает под этот фильтр, если обменивается ссылками с ресурсами, содержащими другую тематику.

Редирект фильтр — применяется к тем ресурсам, на которых используется редирект javascript.

Links Text — наиболее гуманный, просто сайты не индексируются если не содержат ключевых фраз.

Совсем недавно у Яндекса появился фильтр напоминающий «Песочницу» от Google. Только что созданные сайты некоторое время просто не допускаются на верхние места выдачи, пока не войдут в доверие к поисковой системе. Им придется немного подождать перед тем, как выйти в свет.

Как не попасть под фильтры поисковых систем

Чтобы избежать фильтров поисковых систем придерживайтесь следующих правил:

  1. Пишите и публикуйте только качественный контент;
  2. Старайтесь заливать на сайт новый материал чаще (оптимальным считается — 4 новых статьи в неделю);
  3. Наращивайте только качественную ссылочную массу. Получайте бэклинки с тематических и трастовых ресурсов;
  4. Необходимо позаботиться о работоспособности и правильной настройке служебных файлов (robots.txt, sitemap.xml и др.);
  5. Вовремя исправляйте на сайте «битые» ссылки.

Если будете писать качественные тексты для людей, заботиться о посетителях и юзабилити сайта, не спешить с наращиванием ссылочной массы, то о фильтрах, представленных в этой статье, можете забыть навсегда.

www.raskruty.ru

Ручной фильтр Google за искусственные входящие ссылки

Зачастую все начинается с того, что приходит сообщение в панели для Вебмастеров Google. Выглядит оно так:

Пингвин google

В уведомлении сообщение такого характера:

Пингвин google

Сообщения бывают разные, например:

Пингвин google

Чтобы найти сообщения о ручном фильтре, для этого:

Пингвин google

После того, как приходит уведомление об искусственных входящих ссылках, обычно такие последствия:

А) В течении 2-3 недель позиции сильно падают, после чего пропадает посещаемость из поиска Google

Б) Сразу вылетают позиции и посещаемость падает

Причины ручного фильтра Google

Основной сигнал, из-за которого приходит такое уведомление – это анкор ссылки и его переспам.

На заметку: анкор ссылки сильно влияет на ранжирование сайта в Google, но и в тоже время является самым сильным сигналом для алгоритма Google Penguin.

Основные сигналы:

  1. анкор ссылки
  2. качество ссылок
  3. динамика

Как выглядит спамный анкор лист обратных ссылок?

Это очень частый вопрос, и лучше просто привести пример:

Пингвин google

В примере, текст обратных ссылок на один из сайтов, который затронул фильтр. Основная причина фильтра – переспам анкором.

То есть сайт сразу выходит в топ, но далее получает уведомление и падает в поиске по всем ключевым словам.

Еще пример:

Пингвин google

Если посмотреть по уникальным доменам, то получается такая картина:

Пингвин google

Использование обратных ссылок с коммерческими или другими ключевыми словами приводит к ручному фильтру, потери позиций и посещаемость.

Что же тогда делать и как быть?

Решение предельно простое – не использовать большой процент ссылок с ключевыми словами.

Google постоянно борется с покупными ссылками, и в конечном результате страдают даже очень крупные мировые бренды. Например недавняя история с Expedia.com. (http://www.searchengines.ru/news/archives/expedia_poterya.html.)

Пошаговая инструкция по снятию ручного фильтра Google

  1. Уведомление в Google
    Проверяем, есть ли уведомление в Google Webmaster Tools. Если есть, то переходим к следующему пункту.
  2. Запрос на пересмотр
    В первом запросе на пересмотр важно уточнить какие именно ссылки нарушают правила поиска, и спросить, что необходимо сделать для снятия ручных санкций.
  3. Получаем ответ

    В большинстве случаев в ответе указывают те ссылки, по мнению которых сайт нарушает правила поиска. Например:

    Пингвин google«>

    В итоге мы можем определить на какие именно ссылок обращает внимание Google и считает их спамными.

    В нашем случае это были арендованные ссылки, что довольно таки просто снять.

  4. Производим указанные действия

    Дальнейшие действия сильно зависят от вашего ссылочного профиля.

    Ситуация 1

    На ваш сайт стоит большое количество арендованных ссылок, и в большинстве случаев это прямые анкоры, в которых содержаться ключевые слова.

    В таком случае – необходимо:

    1. почистить ссылки с анкорами (в том числе те, которые есть в примере Гугл)
    2. переходить к следующем пункту – новый запрос на пересмотр

    Если действительно убрать большую часть таких ссылок, то ручной фильтр можно снять с одного – двух запросов.

    Ситуация 2

    Вы на сайт размещали только вечные ссылки. В большей части которых содержится прямой анкор.

    Но снять такие ссылки практически невозможно, или очень очень долго.

    В там случае – необходимо:

    1. просмотреть все обратные ссылки (можно с помощью сервисов проверки обратных ссылок, например: Ahrefs, MajesticSeo, LinkPad)
    2. составить список ссылок, которые нежелательные (основные критерии: анкор, низкое качество сайта)
    3. добавить ссылки в Disawov Tool — https://www.google.com/webmasters/tools/disavow-links-main?/
    4. подождать 1-2 недели (из практики необходимо для того, чтобы ссылки пере индексировались)

    Далее переходим к следующему пункту и отправляем запрос на пересмотр.

  5. Отправляем новый запрос на пересмотр

    В запросе на пересмотр необходимо:

    1. четко описать что вы сделали
    2. просто и понятно
    3. и уточнить, что еще необходимо сделать для снятия фильтра

    Дальше отправляем запрос на пересмотр.

    Пингвин google

    После чего, необходимо немного времени для пересмотра вашего сайта. Это может занять от пару дней до 3-4 недель.

  6. Промежуточный ответ

    В промежуточном ответе обычно содержание такого характера:

    Пингвин google

    Это уведомление от Google приходит практически сразу после отправки запроса на пересмотр.

  7. Ждем решения

    Ответ приходит обычно в течении 1-2 недель, иногда дольше, а иногда быстрее.

    В нем либо негативный ответ, например:

    Пингвин google

    Если ответ негативный, то:

    1. заново пересматриваем ссылки
    2. добавляем в Google Disawov
    3. или просто снимаем ссылки
    4. в любом случае нужно сделать действия
    5. отправляем новый запрос на пересмотр

    Но ответ после выше проделанных действий может быть и позитивный, например:

    Пингвин google

    В этом случае – поздравляю вас! Ручной фильтр Google снят.

В нашем примере – был не быстрый способ вывода сайта из под ручного фильтра Google, вот так выглядит хронология событий:

Пингвин google

Важные моменты при самостоятельно снятии фильтра:

  1. не сдаваться
  2. делать действия (а не просто слать запросы на пересмотр)
  3. если сделать все, как выше описано, то ручной фильтр от Гугл снимется, вы вернете позиции и трафик

Вот информация, которая дополнит данный материал и поможет вам успешно снять фильтр:

  1. Кейс — снятие ручного фильтра Google на сайте форекс тематики под США
  2. Кейс — как снять ручные санкции Google с помощью Disavow Tool, вернуть позиции и посещаемость
  3. Кейс — как снять ручные санкции Google, вернуть позиции и трафик

В ручном фильтре нет ничего страшного, самое главное не поленится и сделать ряд действий, который приведет к нужному результату.

Как результат – это возвращение посещаемости на прежний уровень, например:

Пингвин google

В данном примере рассмотрены пару сайтов, фильтры с которых снимались в разное время.

По времени снятия фильтра:

  1. рекорд за 4 дня
  2. самый долгий срок 3.5 месяца

Но в любом случае нужно действовать оперативно, а так же учитывать выше описанные моменты.

Автоматический фильтр за обратные ссылки

С автоматическим фильтром от Google – все на порядок сложнее. Так как о нем не приходит сообщение.

Важно: автоматические санкции могут сняться при официальном обновлении алгоритма Google Penguin, которое в среднем происходит раз в 2-4 месяца.

Чтобы вы не делали, до обновления алгоритма – ничего не изменится, если это автоматические санкции.

Мы не раз снимали автоматический фильтр, но не всегда все происходит быстро.

Признаки фильтра

Все тоже самое, как и с ручным, только не приходит никакого уведомления.

Обычно:

  1. позиции сначала проседают в – 30-50
  2. падает трафик на сайт

И потом долгое время не возвращается.

Основные причины:

  1. Прямое вхождение анкора ссылки
  2. Некачественные обратные ссылки

Пошаговое руководство по снятию автоматического фильтра

В данном случае в отличии от ручного все на порядок дольше, и сложнее.

  1. Просмотр ссылочного профиля

    Нужно тщательно просмотреть ссылочный профиль. Выявить:

    1. качественные сайты
    2. сайты на которых прямой анкор ссылки
    3. спамные сайты

    Критерий качественного сайта:

    1. тематика сайта
    2. посещаемость сайта
    3. уникальность контента
    4. индексация сайта
    5. обновление сайта
    6. обратные ссылки на сайт донор (чтобы был более менее естественный ссылочный профиль)
    7. динамика роста ссылок

    Это самые базовые моменты, на которые как минимум стоит обратить внимание.

  2. Замена анкоров ссылок

    Есть 2 варианта замены анкора:

    А) Попросить вебмастеров поменять на безанкорную ссылку

    Довольно таки долгий процесс, но имеет право на жизнь.

    Б) Усилить ссылочный профиль сайта – новыми безанкорными ссылками

    Статья как дополнение: Правильное безанкорное продвижение сайта, инфографика и список естественных анкоров на русском

  3. Динамика

    В большинстве случаев просто нужно продолжать добывать обратные ссылки на сайт, но с учетом того, что нужно сильно разбавить анкор лист.

    Вот так выглядит нормальная динамика:

    Пингвин google

  4. Качество ссылочных доноров

    В данном случае необходимо не класть все яйца в одну корзину, а использовать разные источники ссылок.

    Например:

    1. — контекстные ссылки
    2. — ссылки в статях
    3. — ссылки с форумов
    4. — ссылки из социальных сетей
    5. — социальные закладки
    6. — качественные каталоги
    7. — комментарии в блогах
    8. — ссылки из блогов
    9. — ссылки со СМИ сайтов

    Чем более разносторонний у вас будет ссылочный профиль, тем быстрее это повлияет на снятие с сайта автоматических санкций.

  5. Время

    В нашем случае время лечит. Нужно работать над сайтом, разбавлять анкор лист, работать над низко частотными запросами и сайтом в целом и ждать.

    У нас есть пример, когда с сайта снимали фильтр спустя 4 месяца работы над ним. Как результат – самые топовые высокочастотные запросы вылезли в топ.

    Пингвин google

    Важно: Если у вас точно автоматический фильтр за обратные ссылки, то есть фильтр Google Penguin. То не стоит ожидать быстрых результатов.

    В нашей практике быстрых результатов не было для белых проектов, и обычно это занимает от 2-3 месяцев и более.

ktonanovenkogo.ru

Зачем был создан Penguin

Давайте заглянем в прошлое и посмотрим, как раньше продвигались сайты. Например, нужно было выйти в ТОП по какому-нибудь высокочастотному запросу.

Что для этого делал вебмастер, писал оптимизированную статью, где неоднократно употреблял ключевое слово в содержании статьи, а затем, используя ссылочные биржи, покупались десятки ссылок, притом с доноров не самого лучшего качества, в которых анкор и был продвигаемый запрос.

В итоге такой псевдо СДЛ сайт занимал высокие места в ТОП Гугл и получал тонны трафика. Конечно же, это не могло продолжаться долго и Google был вынужден настроить свои алгоритмы таким образом, чтобы исключить из выдачи некачественные сайты, умышленно завышающие свои позиции.

Если с контентом начала бороться Панда, то следить за качеством входящих и исходящих ссылок пришлось новоиспеченному Пингвину, который после запуска изменил всемирную выдачу до неузнаваемости.

Penguin — это кодовое слово очередного фильтра от Гугла, который фильтрует сайты, опуская из на низкие позиции в выдаче, за неестественную ссылочную массу.

Ниже мы более детально рассмотрим те факторы, за которые применяются санкции к площадкам.

За что наказывает фильтр Пингвин

Если после очередного обновления данного фильтра вы заметили, что трафик резко пошел вниз, то скорее всего к сайту были применены санкции.

Посмотрите на один сайт, который пострадал от Пингвина в день его выхода на свет.

Падение трафика фильтр Пингвин

Причины, из-за которых страдают сайты:

Качество входящих ссылок. Теперь для Гугла неважно количество входящих ссылок, ему важно качество, а самое главное естественность. Все остальное может быть расценено, как умышленное манипулирование результатами выдачи, к которым следует отнести:

— Ссылки, у которых в анкоре присутствует прямое вхождение ключевых слов;

— Размещение ссылок на заспамленных, некачественных площадках;

— Обмен ссылками;

— Сквозные ссылки в футере и сайдбаре;

— Неравномерное распределение ссылок по страницам сайта.

Исходящие ссылки. Если вы решили поставить исходящую ссылку, то обязательно проверьте сайт, на который хотите ссылаться, потому что он должен быть качественным, а не спамным.

То же самое касается вебмастеров зарабатывающих на продаже ссылок. Если на сайте в основном присутствуют коммерческие или нетематические ссылки, то велика вероятность, что такая площадка может попасть под клюв Пингвина.

Скорость прироста ссылок. Ссылки должны появляться на сайт постепенно, по мере его развития. Если вы любите в качестве средств продвижения использовать прогоны по базам профилей и каталогов, то пора с этим завязывать.

Гуглу не понравится, если вчера на ваш сайт вело 100 линков, а спустя день уже ссылается 1000 — это явный признак линкспамерства.

Все вышеперечисленное можно заменить одним словом — ЕСТЕСТВЕННОСТЬ.

Как проверить под каким фильтром находится сайт

Если в один прекрасный день вы по неизвестным причинам лишились трафика из поисковой сети Google, то первым делом надо определить под каким именно фильтром находится ваша площадка, чтобы разработать стратегию по скорейшему снятию санкций.

Как я уже писал, фильтр Пингвин имеет две разновидности в плане применения к площадкам: ручной и автоматический.

При ручном методе наложения санкций, как правило, приходит уведомление в панели Гугл Вебмастер, в котором сообщается, из-за чего пострадал сайт.

Уведомление о наложении фильтра Пингвин

Содержание письма может в некоторых случаях отличаться, но суть его остается одна и та же — избавиться от некачественных и неестественных бэклинков. После чего надо отправить запрос на перепроверку площадки.

Чтобы найти это уведомление нужно инструментах для вебмастеров перейти в раздел «Поисковый трафик» далее «Меры, принятые вручную».

Инструменты для вебмастеров

Если сайт подвергся ручным санкциям, то в этом разделе будет находиться злосчастное письмо от службы по борьбе с поисковым спамом. Но большинство вебмастеров видит следующую картину.

Меры, принятые вручную

В этом случае ручной фильтр Пингвина к проверяемой площадке не был применен и следует копать в сторону автоматического.

Пингвин, как и другие фильтры, периодически обновляет свою базу некачественных площадок, а статистика показывает, что это происходит два раз в год.

Ниже я выписал последние даты, когда произошел апдейт Penguin:

24 апреля 2012 года

25 мая 2012 года

5 октября 2012 года

22 мая 2013 года

4 октября 2013 года

17 октября 2014 года

Теперь нужно сопоставить день, когда начался спад трафика с днем обновления фильтра и если эти числа совпадают, считайте истинная причина пессимизации площадки в выдаче установлена и можно приступать к ее лечению.

Но есть и другой способ узнать, под какой именно фильтр от Гугла попал сайт. Решением стал зарубежный сервис под названием Barracuda.

В его арсенале есть продукт Panguin Tool, который берет данный из статистики Google Analytics, а затем накладывает на график посещаемости даты обновления всех фильтров, что позволит лучше оценить, какой из них повлиял на ранжирование страниц сайта.

сервис barracuda

Для того чтобы его опробовать в действии на вашем сайте должна быть подключена статистика Гугл Аналитикс, правда для того чтобы воспользоваться услугами этого сервиса придется предоставить ему данные для входа в Аналитику, что не всегда может быть безопасным, однако я по этому поводу заморачиваться не стал.

1) Входим в свой аккаунт Гугл Аналитики, для чего нажимаем на кнопку «Log-in to Analytics».

Входим в аккаунт Analytics

2) Далее вам надо подтвердить право на предоставление доступа приложения «Barracuda Digital».

приложение Barracuda Digital

3) Теперь надо выбрать тот аккаунт сайта, с которого будет сниматься статистика посещаемости.

выбираем аккаунт Аналитики Гугла

4) Перед вами появится заветный график за последний год, на который будут нанесены все даты обновления Гугл фильтров.

фильтр Панда и Пингвин

Если посмотреть на статистику моего блога, вывод напрашивается неоднозначный. Четко видно, что падение трафика началось с обновления Панды, а когда трафик начал уменьшаться, произошел апдейт Пингвина, что тоже могло повлиять на ранжировании сайта в целом.

Теперь передо мной стал вопрос, под каким именно фильтром находится мой блог: Пандой или Пингвином? Буду рад, если в комментариях вы поможете мне в этом разобраться. :)

Как вернуть позиции сайта и победить Пингвина

Если с Пандой дела обстоят неоднозначно и чтобы ее победить, надо смотреть в сторону контента, то с Пингвином все куда радужней, так как достаточно убрать некачественные и неестественные ссылки на сайте и в случае с ручным фильтром отправить сайт на перепроверку, а с автоматическим ждать, когда случится апдейт.

Но как убрать такие ссылки, а также как узнать какие из них качественные, а какие нет? Если с исходящими ссылками все понятно, достаточно пробежаться по статьям и поставить на них запреты noindex и nofollow, то с входящими вечными линками все намного сложнее.

Для таких ситуаций Гугл пошел навстречу вебмастерам и придумал сервис Disavow links по отклонению ссылочной массы, которая не будет учитываться алгоритмами поисковика при ранжировании сайта.

Все что нам нужно это скачать список всех ссылающихся сайтов, о которых известно Гуглу, далее проверить их на качество, а затем все некачественные площадки отправить в Disavow links, сообщая тем самым, что на них не нужно обращать внимание при анализе ссылочной массы.

Скачиваем список входящих ссылок. Для этого идем в панель инструментов Гугл Вебмастер в раздел «Поисковый трафик» далее «Ссылки на ваш сайт» и в самом низу списка жмем «Дополнительно».

Ссылки на ваш сайт

Далее надо выгрузить все ссылки к себе на компьютер. Для этого нажимаем кнопку «Загрузить последние ссылки», еще обратите внимание, что ссылок у вас будет куда больше, чем входящих доменов.

Загрузить последние ссылки

Затем выбираете, в каком формате надо сохранить список ссылок, я придерживаюсь документа Excel.

выбор формата загрузки

Далее у вас два варианта, как проверить полученный список ссылок на качество:

— Самостоятельно просматривать все доноры из списка, проверять их показатели, опираясь на свои навыки.

список ссылок

— Доверить проверку специальным сервисам, о которых я рассказал в статье «Как проверить ссылки на предмет качества».

Я пошел по более простому для меня варианту, так как не считаю, что могу потратить столько времени, чтобы проверить около 1000 доменов.

Переходим в сервис CheckTrust и выбираем в меню создать проект «BackLinks Checker».

проект BackLinks Checker

Далее вводим любое название проекту и загружаем скаченный ранее файл со ссылками. Если какие-то ссылки из файла вы уже проверили сами, то можете вставить список оставшихся ссылок в специальное поле для проверки и нажимаем «Далее».

Создание проекта BackLinks

Далее вам надо выбрать тип очистки:

Легкая чистка — удалению подвергнутся только бэклинки с самых некачественных сайтов.

Умеренная чистка — в список попадут все подозрительные сайты по качеству оцениваемые как ниже среднего.

Отличная чистка — все, вызывающее хоть какое-то подозрение, будет удалено.

Жесткая чистка — среди «выживших» останутся ссылки с сайтов только высшего качества, по статистике это не более 5-10% всех бэклинков.

Нужны все варианты — получите все 4 файла со ссылками после разных степеней чистки.

Тип очистки ссылок

Сразу скажу, что берите лучше последний вариант, чтобы у вас были все списки, и вы наглядно видели какие из доменов все-таки стоит оставить.

После того как система проверит проект и его статус обработки станет «Выполнено» вам нужно будет по нему кликнуть, чтобы произошла его загрузка на компьютер.

Это будет текстовый файл со списком сайтов, которые система посчитала некачественными и которые стоит добавить в сервис Disavow links от Google. Если посмотреть скаченный файл, то вы увидите примерно такую картину.

формат ссылок для сервиса Disavow links

Именно в таком формате domain:сайт и надо отправлять все исключаемые площадки в Disavow links. Как видите, CheckTrust сделал неинтересную работу за вас. :)

Теперь надо перейти в инструмент Disavow links, почему-то прямой ссылки на него из панели Гугл Вебмастер я не обнаружил, а далее выбрать сайт, для которого будете отклонять ссылки.

Отклонение ссылок

Читаем внимательно предупреждение, видно создано для тех, кто случайно решил воспользоваться этим инструментом.

Предупреждение

Далее выбираем файл, который мы получили в сервисе проверки ссылок и нажимаем «Готово», а потом «Отправить».

выбираем файл

Если вы все сделали правильно, то в сообщениях о сайте должны получить уведомление, в котором будет стоять такая же цифра отклоненных доменов, сколько было в загружаемом файле.

Сообщения о сайте

После всех вышеописанных манипуляций останется ждать, когда произойдет обновление фильтра Пингвин и с сайта снимутся санкции, но при этом не стоит забывать, что ссылки должны постоянно прибавляться. Гугл любит динамику постоянного роста качественной ссылочной массы.

Так что обратные бэклинки нужно добывать всеми возможными способами постоянно, а вот как это сделать вы узнаете в следующих постах, главное не пропустите!

На сегодня у меня все, расскажите, как вы победили фильтр Пингвин и какими инструментами для этого пользуетесь. Пока!

seoslim.ru

Поделиться:
Нет комментариев

Добавить комментарий

Ваш e-mail не будет опубликован. Все поля обязательны для заполнения.

×
Рекомендуем посмотреть
Adblock
detector