Почему поисковики банят за копированный контент

Вопрос, почему банят сайты, для многих веб-мастеров часто так и остается если не загадкой, то чем-то не совсем понятным. Но в последнее время наиболее распространенная причина вполне понятна – это копированный контент. Давайте рассмотрим, почему сегодня поисковые системы так активно взялись именно за это явление, ведь контент воровали всегда и поисковики раньше относились к этому более лояльно.


В первую очередь надо понимать, интернетовским поисковикам в принципе наплевать на авторские права, как и на то, где находился первоисточник контента в самом начале. Им нет разницы, какой из сайтов окажется в выдаче первым, с оригинальным контентом или копированным. Так же, как и пользователю, который пытается найти нужную ему информацию, абсолютно без разницы, где он ее найдет. Там где она появилась первоначально или же на том сайте, откуда она скопирована. Поисковые системы тоже это понимают и совсем не ставят перед собой цель бороться за авторские права, это должны делать сами авторы. Функция поисковиков быстро находить информацию и им все равно, какой у нее источник.

Тогда почему поисковики в последнее время так взъелись на копипастные сайты? Фильтр АГС-17 стал настоящим кошмаром для любителей чужого контента. Но действия поисковых систем всегда основаны на логике, так что какие-то выводы из их поведения можно сделать.

Вся информация, в том числе, и полезный контент с веб-ресурсов хранится на серверах. Чем отличается полезный контент от неполезного – это другая тема. Важно, что для хранения этого контента требуется много серверов или их большой объем. В Интернете полезный контент увеличивается очень быстро, соответственно и места для его хранения требуется все больше и больше. Даже при новейших технологиях серверы не резиновые и поисковые системы начинают решать этот вопрос за счет определения полезности сайтов, ведь всем хорошо быть не может. То есть какие-то сайты должны пойти «под нож», просто для того, чтобы освободить место на серверах, а не из каких-то идейных соображений, как считают некоторые.

Теперь перед поисковиками стоит задача минимизировать потери, когда эти сайты будут удалены из индекса. В этом вопросе как раз и пригодились сайты с копированным контентом. Ведь это из-за них на серверах находится контент, который может повторяться до сотни, а то и больше раз. То есть, если разобраться с этими ресурсами, то места отводится довольно много. К примеру, существуют тематики, где копированный контент составляет почти 40%. Наверно каждый пользователь попадал по одному запросу на разные сайты с одинаковым текстом. Поэтому поисковики и взялись в первую очередь банить те веб-ресурсы, где больше всего повторяющегося контента. Затем, согласно логике выработалась схема, по которой под бан идут сайты , где копированный контент составляет 90%, потом 80% , 70% и так далее.


Отсюда становится понятно, что активизация поисковых систем в борьбе с копипастом начинается при росте индексируемого контента, то есть когда срочно нужно освобождать место на серверах. Бывает, что и эти меры не дают нужного результата, и места все равно не хватает, тогда поисковик резко повышает планку своих требований и начинаются настоящие репрессии, где под горячую руку может попасть и благополучный сайт с нормальным контентом. Вот здесь веб-мастера и начинают озадачиваться, почему их сайт некоторое время устраивал поисковую систему, а тут вдруг бан. А ответ простой, ужесточились требования, и не, потому что поисковик такой плохой и жаждет крови, а просто всем места под солнцем не хватает.

Тему можно раскрыть еще глубже, если проанализировать конкурентную борьбу между Гуглом и Яндексом. Ведь ноги растут скорей всего отсюда, и то, что основные репрессии происходят именно со стороны Яндекса, свидетельствует, что Гугл все-таки побеждает.

Немного рекламы :)

Copyright, design, ideas © Mihail. При копировании материалов, ссылка на сайт "Seozar.ru" обязательна. Контакты - admin@halych.ru
Тариф «Первый»: 2 сайта, 1 Гб, 2 MySQL, 2 FTP