Персональный SEO блог


АГС-40 Яндекса: причины, следствия и возможности выхода

Опубликовано в разделе: SEO, Продвижение сайтов

Всем привет! Наконец наступил последний месяц этого года, а это значит… Как Вы уже догадались – это значит Яндекс подготовил нам ежегодные декабрьские сюрпризы с прицелом на 2014 год.

АГС-40 Яндекс

За эту неделю столько произошло событий, о некоторых напишу коротко, другие же рассмотрю в новых постах.

Во-первых, 6.12.2013 апнулся PR Google, данное событие бывает раз в год и если ещё не проверили свои сайты, самое время это сделать. По моим наблюдениям: у многих старых сайтов порезало на 1-2, новым дало 1, у очень малого количества стариков повысился.

Во-вторых, осталось слабо замеченным событие, что Яндекс проводит эксперимент по шифрованию текста запроса в заголовке Referer. Данные о пользовательских запросах получить будет нельзя. Ни через метрику, ни через что-то другое. Об этом четко написано в одном из комментариев на Хабре. Возможно об этом напишу подробнее позже, но ситуация в принципе ясна.

В-третьих, 5 декабря 2013 года на конференции IBC Russia 2013 Александр Садовский рассказал о том, что в следующем году Яндекс перестанет учитывать ссылки в ранжировании по коммерческим запросам. Пока они собираются обкатывать новый алгоритм, конечно же, на москвичах. Об этом я точно напишу отдельный пост. Пока только скажу, что паниковать не стоит, с 2007 года они борются со ссылками. Арбайтен вот уже 1,5 года в каждом посте пишет, что старое ссылочное не работает.

В-четвёртых, собственно, о чём данный пост и будет – это АГС 40. Дитя вырос из 17\30 версий и получил новую модификацию, подбив в ссылочных биржах ориентировочно до 25-30% доноров. Значительные цифры, если Вы закупали ссылки, то пора проверить, не уменьшилось ли их количество в панели вебмастера.

Читать далее »

Комментариев 28

Выбор CMS для сайта. На какой cms делаются успешные сайты.

Опубликовано в разделе: DLE, SEO, Wordpress

Всем привет! Сегодняшний пост не будет большим и посвящу я его интересной теме – выборе системы управления сайта.

Сайты на чистом html уходят в прошлое, даже Яндекс сдал свой народный хостинг юкозу, тем самым похоронив целый пласт истории развития рунета. Однако html проекты успешно существуют и развиваются, я знаком с владельцами новостных спортивных ресурсов, обновляемых регулярно и обходящихся без cms. Труд титанический, но поисковики любят эти сайты, возможно и отчасти за использование html. Его сейчас активно задействуют в качественном сателлитостроении.

Но мы живём в 2013 году, представить новой крупный проект без cms становится всё труднее и труднее. Сейчас расскажу своё мнение к подходу выбора системы управления сайтом.

Есть два полярных мнения:

Первое базируется, что cms очень важна и чем она дороже, уникальнее, менее распространенная, тем больше тебя будут любить поисковки. Придерживаются данной позиции студии, которые работают со своими уникальными cms и, конечно же, разработчики дорогостоящих cms и якобы крутых решений для бизнеса. Откуда дует ветер понятно, студии пытаются раскрутить клиента по полной и посадить его на свою иглу, разработчики напрямую зависят денежно от раскрутки данного посыла.

Логика ясна: «Если ты купил крутую cms, которую в рунете не используют ГС, то Яндекс и Гугл изначально станут относиться к тебе положительнее».

Особенно педалироваться данный вопрос стал при массовых волнах АГС, когда его стали почему-то увязывать с самыми популярными бесплатными cms. Хотя изначально процент выборки сайтов под АГС на массовых движках должен быть куда больше, ведь именно на них клепают говносайты. И если ГС стали вылетать, то это сдвиг алгоритмов, а ни борьба с каким-то скриптом управления сайтами.

Отдельно стараются студии, которые разрабатывают такое творчество, что уйдя от них, Вы потом долго будете искать адекватных специалистов, способных за вменяемые деньги разобраться во всём происходящем на сайтах.

В Dmoz я вдоволь насмотрелся на подобные сайты, сделанные на чём-то уникальном, при этом их посещаемость редко переваливала за 40-80 уников. Я даже для себя придумал название подобных проектов – мертворожденные студийные.

Вопрос выбора cms – это вопрос чисто «бабла» и пиара. Купите дорогое, уникальные и Вы сразу на коне – вот и вся первая позиция.

Читать далее »

Комментариев 32

Апдейт ТИЦ и выдачи от 7 декабря 2012

Опубликовано в разделе: SEO, Продвижение сайтов

Всем привет, утром начался апдейт ТИЦА, так что бойцы невидимого фронта могут проверять свои показатели. Zavrab.ru +10 и того набежало 140.

Касаемо выдачи, у меня отвалилось много запросов по яндексу 4 декабря. Как по сговору -20-25 позиций каждый. В данный апдейт никаких подвижек не произошло. Такая петрушка касается только старых сайтов и вч с сч запросами. Жду следующего апдейта, затем напишу, какие коррективы на сайтах буду вносить и о результатах.

Удачных апдейтов!

Комментариев 3

5 советов по борьбе с алгоритмом Panda для крупных сайтов

Опубликовано в разделе: SEO

Любой веб-мастер, занимающийся SEO большого сайта, знает, что следить за всем контентом на ресурсе очень непросто. А алгоритм Panda с каждым новым обновлением становится всё жестче и жестче по отношению к контенту.

5 интересных решений от специалистов по SEO с опытом программирования. В этом году им пришлось исправлять ситуации связанные с контентом на многих крупных сайтах, чтобы вывести их из под фильтра Panda. В советах используются серверные скрипты, которыми и поделюсь с Вами в этой статье.

Эти скрипты предназначены для платформ на PHP/MySQL, но их нетрудно переписать, используя любые другие языки.

Примечание: Несмотря на то, что тщательно проверили реализацию каждого скрипта, Вам следует быть очень осторожными в их применении и обязательно делать резервные копии своих данных.

1. Избавьтесь от дублированного контента на сайте

Проблема

Конечно же, Вы знаете то, что не следует копировать чужой контент и использовать один и тот же материал на сайте несколько раз. Но что, если пользователи Вашего сайта сделают это за Вас? Вам нужен инструмент, который смог бы проанализировать все Ваши статьи в базе данных не только на идентичность, но и на схожесть.

Идея

Для решения этой задачи мы будем использовать такое понятие как расстояние Левенштейна. Оно измеряет, какое количество единичных изменений потребуется для того, чтобы преобразовать одну текстовую строку в другую. Затем преобразовывает эти данные в процентное соотношение, из которого будет видно, насколько одна текстовая строка похожа на другую.

Техническое решение

Функция сравнения Левенштейна доступна базово в каждом языке программирования и очень проста в использовании. Если в Вашей базе данных находится около 10 000 статей, то это процесс может занять некоторое время. У Вас будет время подумать над несовершенством своей БД.

levenshtein

Может быть, мы используем не идеальные методы, но, используя их, Вы добьётесь желаемых результатов.

Читать далее »

Комментариев 2

Как побороть алгоритм Panda от Google: 5 ошибок с контентом

Опубликовано в разделе: SEO

алгоритм Панда GoogleВсем привет! Сегодня, ровно как и в следующем посте будем говорить об алгоритме Panda от Google. Вчера ночью прочитал довольно интересную статью на сёрче, которая перекликается с моим постом и в целом с тематикой внутренних факторов, в частности контента, как основной движущей силы продвижения в 2012 году – “Приведет ли наказание за переоптимизацию Google к «клинической смерти» SEO?“, если есть время рекомендую её изучить, хотя бы бегло.

Мы же сейчас поговорим об основах алгоритма Panda, касаемых внутренних факторов и в большей степени контента. Рекомендации и список составлен на основе выводов ведущих специалистов SEOmoz, т.е данные не взяты мной с потолка, им вполне можно доверить и применять на практике.

Наблюдая за падением многих сайтов после ударов Panda, можно постоянно поражаться тому, насколько ужасно отформатирован контент на этих сайтах даже месяцы спустя. Только некоторые занимались улучшением содержимого на сайте. А большинство веб-мастеров решили, что это просто не стоит затраченных усилий или, возможно, они не знали что делать.

Panda – новый алгоритм от Google

Этот алгоритм основан на действиях специалистов по оценке качества в Google. Поэтому он имеет именно “человеческий” подход к оценке, а не машинный.

Помните, что Panda фильтрует сайты, а не страницы. Так что если определённый процент страниц Вашего сайт низкого качества, то под фильтр Panda может попасть весь сайт. Исправьте положение на большинстве из этих страниц – и сайт восстановится.

Примечание: я просматривал скриншоты сайтов, пострадавших от Panda и заметил у них множество недостатков. Я не хочу указывать пальцем на какие-то конкретные ресурсы и бранить их. Просто хочу сказать, что сайты действительно низкого качества.

Читать далее »

Комментариев 11

Google превращает поисковый трафик в реферальный

Опубликовано в разделе: SEO

изменения в гугл аналитиксGoogle недавно внёс изменения в отчёты по реферальному трафику для тех, кто использует браузер Chrome. В результате некоторые аналитические программы определяют посетителей пришедших с поиска так, как будто они пришли напрямую с Google без выполнения поискового запроса.

Об этом изменении недавно было написано на Google Webmaster Central blog. И мне, например, потребовалось некоторое время, чтобы понять, что вообще происходит. Читайте дальше, я всё объясню.

Google и блокировка рефералов

Рефералы сообщают Google о сайте, с которого кто-то пришёл на другой сайт. Например, если Вы перейдёте по ссылке с одного сайта на другой, то информация о первом сайте передастся второму и будет доступна для инструментов веб аналитики. Эту информацию называют “реферальной”.

В октябре прошлого года Google начал блокировать реферальную информацию, передаваемую их поисковой системой в том случае, если пользователь авторизован или использует безопасное соединение (протокол https).

Google заявил о том, что это изменение было сделано с целью защиты и неприкосновенности частной жизни пользователей.

Читать далее »

Комментариев 7

Факторы внутренней оптимизации. Что наиболее влияет на SEO?

Опубликовано в разделе: SEO, Продвижение сайтов

Коллеги, привет! Хоть SEO и является сочетанием разных видов деятельности, не все они имеют одинаковое значение для поискового ранжирования. А, поскольку специалисты по SEO люди очень занятые, то для них очень важно правильно расставлять приоритеты в работе.

Хочу заметить, что внутренней оптимизации сайта зачастую не уделяют должного внимания. Наверное, потому что это не требует так много времени и усилий как, например, построение ссылочной массы.

Тем не менее, внутренние факторы могут творить чудеса в поисковом продвижении. Давайте поговорим сегодня о них.

Основа для высокого ранжирования

Любые строительные работы начинаются с укладки фундамента для будущего здания. Так и внутренняя SEO оптимизация начинается с создания каркаса для содержимого сайта. Он должен быть удобным и простым для поисковых роботов.

Я буду использовать следующие обозначения, говорящие о важности фактора:

(U) – первостепенное значение

(H) – очень важно

(V) – довольно таки значимо

(Q) – ниже среднего

(M) – минимум влияния

Используйте приведенные выше обозначения, чтобы правильно расставлять приоритеты в своей работе.

Читать далее »

Комментариев 4

Как привлечь трафик на сайт с помощью Google+

Опубликовано в разделе: SEO, Продвижение сайтов

Вам бы хотелось привлечь больше трафика на свой сайт? Вы знаете о нововведениях в Google, но пока не представляете, как ими воспользоваться? Тогда читаем данную статью о возможностях Google+. Seo специалисты на западном рынке, те что получают от 76$ в час рабочего времени (интересная цифра? О ней писалось в статье «6 причин, почему фрилансеру следует просить за свою работу больше») давно уже юзают все прелести технологии Google+.

Благодаря нововведениям от Google+ Вы сможете увеличить трафик на своём сайте, только нужно ответственно подойти к этим методам.

Последние изменения от Google можно запросто назвать сейсмическим сдвигом в интернет поиске.

Google назвал свою программу “Search plus Your World”. Эта компания имеет многолетний опыт по работе с поиском в интернете. Они действительно хороши, потому что стремятся дать людям именно ту информацию, которую они ищут, а не то, что вводят в строку поиска. Если Вы введёте в поисковике Google запрос “ягуар”, то умный алгоритм определит Ваши предпочтения и выдаст то ли машину, то ли животное.

Теперь результаты поиска предоставляются на основе того, какие страницы были просмотрены Вами ранее, а также Вашего социального профиля.

Читать далее »

Комментариев 3

Бесплатная SEO литература: Оптимизация внутренних факторов и Twitter-копирайтинг

Опубликовано в разделе: SEO, Продвижение сайтов

Товарищи, всем трудовой привет! Сегодня хочу предложить Вам несколько бесплатных электронных профильных книг по нашему ремеслу.

Леонид Гроховский, Михаил Сливинский, Алексей Чекушин, Станислав Ставский - SEO: руководство по внутренним факторам

Леонид Гроховский, Михаил Сливинский, Алексей Чекушин, Станислав Ставский - SEO: руководство по внутренним факторам

Книжка первая: Леонид Гроховский, Михаил Сливинский, Алексей Чекушин, Станислав Ставский – SEO: руководство по внутренним факторам

Её мне посоветовал прочитать земляк с Сёрча, за что ему большой респект, хоть и руки с глазами долго шли до неё. Книга действительно стоящая, для новичков и с начальным уровнем знаний поисковых систем, просто бесценная литература. Конечно, без рекламы своих услуг не обошлось, но без этого в наше время никуда.

Знаю, насколько у каждого из нас устают глаза, поэтому сразу говорю, книжка стоит потраченных усилий. Написана практиками для практиков.

Перед прочтениями я хорошо полазил в поисках отзывов, чтоб зря не насиловать свой зрительный аппарат. Отличный конспект книги есть на блоге Morafonets, перед скачиваем можете ознакомиться.

Скачать книгу Леонид Гроховский, Михаил Сливинский, Алексей Чекушин, Станислав Ставский – SEO: руководство по внутренним факторам

Вторая книга: Дениса Каплунова Twitter-копирайтинг

Дениса Каплунова Twitter-копирайтинг

Так вышло, что до твиттера совсем руки не добираются, поэтому наметил в планах прочитать сей бесплатный продукт. Возможно, и Вам будет интересно. Может научат коротко и ясно копирайтить! Копирайтить как автомат Калашникова. Рекламную составляющую книги можно тоже пропустить мимо глаз. Книга распространяется свободно, так что поблагодарим автора.

Скачать книгу: Дениса Каплунова Twitter-копирайтинг

p.s работаем, не сдаёмся! и один в поле воин!

сеошники тож люди, хотя с виду как муравьи

Комментариев 1

Как устроен поиск в Google: механизмы и алгоритмы

Опубликовано в разделе: SEO, Продвижение сайтов

Всем привет! Сегодня продолжим говорить о Google, о механизмах его работы, которые должен понимать каждый вебмастер и тем более сеошник.

Обсуждение деталей SEO с клиентами – дело не из лёгких. Но всё-таки очень важно объяснить им все азы так, чтобы у них было правильное представление о Вашей работе и правильные ожидания.

Люди, занимающиеся SEO, должны понимать как Google и другие поисковые системы сканируют, индексируют и ранжируют веб-сайты.

Важно понимать, как нелегко достичь высокого рейтинга с новым проектом, т.к. алгоритмы Google учитывают большое количество факторов, которые постоянно изменяются и дополняются. Разъяснив своим клиентам процесс работы поисковых машин, Вы тем самым дадите им понять, что SEO – занятие не из лёгких.

Так как же алгоритм Google работает?

Анатомия поисковых машин

- URL-сервер отправляет списки URL-адресов для сканирования

- Специальные роботы (краулеры) скачивают веб-страницы и отправляют их на сервер. На сервере они сжимаются и сохраняются

- Каждой веб-странице назначается специальный идентификатор, называемый DocID. Затем страница отправляется в индексатор

- Индексирование выполняется индексатором и сортировщиком

- Все страницы конвертируются в набор специальных элементов. Каждый элемент в себе содержит слово, его позицию в документе и другие переменные

- Индексатор посылает эти элементы в более крупные контейнеры, создавая частичный индекс

- Индексатор выделяет все ссылки со страниц и сохраняет информацию о каждой из них в отдельном месте. Важно местоположение ссылки (URL-адрес), целевая страница (на которую она ссылается) и её якорный текст

- База данных ссылок используется для вычисления PageRank для каждого из документов. Сортировщик принимает контейнеры, отсортированные по DocID, а затем сортирует их по WordID для создания инверсного индекса. Поисковик, запущенный на веб-сервере использует инверсный индекс и значения PageRank страниц для ответа на запросы пользователей

Читать далее »

Комментариев 5

Авторский seo блог заводского трудяги, seo новости и полезная seo информация

Дизайн и создание шаблона