Заказ расчета стоимости продвижения онлайн »
СТАТЬЯ

24 сентября 2014

Как повлияли поисковые алгоритмы Яндекса и Гугла на продвижение сайтов в ТОП: полезные и актуальные сведения

Прошло совсем немного времени с момента презентации поисковиками новых алгоритмов: Гугл Пингвина, Панды, Рейкьявик и Снежинска, а также внесения изменений в имеющиеся и активно действующие алгоритмы. На те и другие новшества веб-мастера вынуждены были отреагировать активнее чем привыкли это делать обычно, так как с выходом новинок изменились представления о SEO-оптимизации в целом.

Раньше все было проще: компенсировать опыт работы с сайтами можно было определенным бюджетом, позволяющим закупить правильные ссылки и провести мало-мальскую оптимизацию, впрочем, вполне достаточную для вывода сайтов в ТОП.

Оба поисковика настоятельно твердили о том, что главное — это сайты, полезные людям. Активно развивалась пропаганда заполнения страниц ресурсов полезным и качественным контентом, при этом серьезные меры наказания к несогласным не применялись. Продолжалось так на протяжении более 10 лет, за которые веб-мастера научились не обращать на правила особого внимания. Большая часть сайтостроителей стали одержимыми мыслью сделать как можно больше сайтов для заработка на них в дальнейшем. Это и привело к появлению новых фильтров.

Эволюция поисковых алгоритмов: как это отразилось на продвижении?

Со временем поисковые алгоритмы стали отбирать сайты, не приносящие пользу людям. В поиске оставались только качественные «сателлиты». Учитывая это, веб-мастера стали делать все возможное для того, чтобы попасть в ТОП за счет действительно качественного ресурса. Каждый старался провести оптимизацию страниц, мечтая о месте под солнцем, между тем, порой полностью забывая об интересах пользователей, для которых, собственно, и разрабатывался ресурс.

Чтобы помочь пользователям и были разработаны специальные фильтры, позволяющие выделять самые полезные и интересные сайты и страницы с помощью посетителя, который сам того не зная влияет на позиции выдачи ресурса. Вдобавок к этому добавились алгоритмы, способные выявить сайты и страницы, которые продвигаются путем ссылочного спама, переоптимизации и прочих запрещенных вещей.

Сегодня владельцы многих ресурсов озабочены выводом сайта из-под фильтров поисковых систем, путем применения белой оптимизации, о пользе которой прямо заявил Гугл. Для них крайне важно продвигать сайт в соответствии с новыми требованиями поисковиков, исключая старые методы, которые сегодня часто могут дать обратный эффект — понижение позиций ресурса. Особенно это касается ресурсов, которые до сегодняшнего дня продвигались по большей части за счет ссылочных бирж, когда ссылки закупались с прямыми вхождениями ключей и оптом. Те, кто сделал ставку на такой метод продвижения сегодня только потеряют. Никаких продвижений «на автомате» больше не будет, за исключением использования сверх умных систем. Ссылки нужно сегодня подбирать и закупать только вручную.

Как снять с сайта фильтр?

Помните о том, что фильтры могут быть наложены как на сайты, так и на отдельные их страницы. Поэтому, если заметно уменьшился трафик, не паникуйте, возможно, сайт еще не в «черном списке». Вероятно, что проблема в отдельных страницах с переоптимизацией и спамными ссылками. Постарайтесь исправить погрешности и фильтры будут сняты после первого же апдейта. Не отказывайтесь от развития сайта, если он действительно вам дорог, боритесь за улучшение его содержимого и фильтры будут вам не страшны.

Не забывайте о том, что чем старше ресурс, тем больше поисковики ему доверят, особенно если владельцы домена остаются без изменений.

Какой вывод из всего этого напрашивается? Разрабатывать нужно сайты исключительно качественные и полезные для людей. Не страшно, если упадут показатели трафика. Если ресурс и правда хороший и продвигался белым СЕО, то после очередного апдейта трафик вернется, причем, возможно, увеличится вдвое.

Целесообразное продвижение: рекомендации веб-мастерам

Главное — не воевать с алгоритмами, а попытаться понять принцип их работы. Фильтры создавались не просто так, они прошли проверку на тестировании миллиона страниц, в результате чего сегодня знают о сайтах столько, сколько не снилось даже самому опытному веб-мастеру. Если ресурс резко потерял позиции, но, вы уверены в его полезности и соответствии алгоритмам — просто свяжитесь со службой поддержки, возможно, там смогут ускорить процесс восстановления справедливости.

Не пытаться обмануть самого себя. Новые алгоритмы поисковых систем — это не карательная мера, а всего лишь возможность улучшить качество информации в Интернете. Хорошие сайты обязательно получат «бонусы» - лучшие позиции выдачи, плохие понесут «наказание». Так или иначе, но кто-то всегда окажется за бортом, учитывая, что ТОП не может уместить всех желающих. И, если какая-то страница ресурса потеряла позиции, значит ее смогла заменить другая более полезная и интересная для пользователей, и значит, имеет смысл пересмотреть контент и внести в него изменения.

Многие веб-мастера ошибочно полагают, что их сайт, сделанный собственными руками будет самым лучшим и полезным. В итоге же при анализе ресурсов поисковыми системами оказывается, что они не несут пользы пользователям и предназначены больше для получения прибыли на рекламе и ссылочной массе.

Чтобы этого не получилось, важно, чтобы все на сайте было гармоничным, начиная от дизайна и заканчивая контентом. Одно без другого не даст результатов. При этом, именно контент сегодня правит балом, а поисковики научились отличать качественное наполнение от некачественного. За нечестные попытки оптимизировать ресурс будут наложены санкции — фильтры в лучшем случае и исключение из поиска в худшем.

Задумайтесь об этом и проведите анализ сайта глазами пользователей, при необходимости воспользуйтесь знаниями и опытом специалистов.