Уникальность контента

В понятие "уникальность", относительно SEO, пользователи вкладывают один очень примитивный и прямой, как палка, смысл - контент должен зрительно отличаться от другого контента. Например, если у нас текст, выразим его одним предложением - "собака воет на луну", то он неприменно должен стать единственным в поисковых индексах со значением "100% уникальности". И если кто-то другой запостит "собака воет, увидев луну", то, по мнению большинства пользователей (сео-блоггеров во всяком случае), уникальность сразу же падает за какую-то планку, первоначальный текст уже не 100-процентен и т.д. и т.п., а значит ранжироваться будет по каким-то совершенно новым философиям в Google.

На этом прогресс пользовательского коллективного мышления не останавливается. Изобретается рерайт (аналог школьного изложения - переработка текста с сохранением смысла, оно же - чистой воды плагиат), а "текст-отсебятина" начинает  дружно считаться а-приори признаком качества и называться копирайтом. Сервисы, подобные www.content-watch.ru, уже используются не по прямому назначению (прямое назначение - это выявить копипастеров или оценить купленный текст), а по добыванию той самой цифры 100, которая с какого-то перепуга должна гарантировать, причём сразу, позиции в пс, в частности, в Google.

Интересно, что об уникальности другого контента - изображений, видео веб-мастера почему-то не любят говорить. Почему? Хотя там есть интересные моменты (см. Мэтт Каттс: «Google может использовать EXIF-данные фотографий в качестве фактора ранжирования»).

Третья фаза в формировании заблуждений - построение всего цикла оптимизации сайта вокруг контента с показателем 100 и тщательное отслеживание того, чтобы эта цифра никем не нарушилась.

Глупости конечно могут долго ходить и бурлить в массах, но в какой момент обязательно родится "новая", почти революционная, идея. И нового в ней ничего не будет, обычная логическая последовательность размышлений. В данном случае речь идёт о смысловой неуникальности. Она, эта неуникальность, в примере для Яндекса описана в статье "Зачем нужна добавочная ценность? Пессимизация сайта за смысловую неуникальность контента".

В принципе, правильная статья (нет смысла критиковать в статье про Google статью про Яндекс) с очень меткими попаданиями:
  1. Если контент вашего сайта дает ответы на вопросы, которые уже давно раскрыты на сотнях других сайтов, почему поисковик должен направлять посетителей именно к вам?
  2. Хочу обратить внимание, что больше половины таких сайтов (имеются ввиду проблемные сайты с низкокачественным материалом) объединяет одинаковый подход к созданию. Сначала выбиралась “маржинальная” тематика, потом подбирались ключевые слова и объединялись в группы, на основании которых строилась структура сайта. Ну и потом под эти слова писался “уникальный” контент. Очевидно, что на первом плане стояла цель монетизации, а не создания действительно полезного ресурса. Концепция многих таких сайтов была просто слизана с успешных нишевых ресурсов.
Что происходит в Google?

Поисковику вообще не нужно определять какую-то мнимую уникальность в виде определённой последовательности символов. Достаточного того, чтобы на общих алгоритмических условиях убивать явные копипасты (Панда, как часть общего алгоритма, отделяет годный контент, который пользуется популярностью и авторитетностью от негодного - партнёрский спам, копипасты, генерация текста и т.д.), а ручными мерами гасить веб-спам. Конкретные случаи (Вася с трастового сайта украл у меня статью, теперь она в топ1, а моя в топ 100 не попала) рассматриваются совершенно в другой плоскости - в правовой. То есть DMCA в помощь. К тому же сайт с копипастами даст ещё множество некачественных сигналов (чтобы схватить меры) при попытке прокачать себе рейтинг, а без рейтинга он не в состоянии с кем-либо конкурировать, т.е. безобиден.

DMCA жалоба
DMCA жалобы на плагиат и копипаст и удаление из индекса нарушающих ссылок

Так называемый лингвистический анализ (ещё надо понять, что это такое, но не суть...) годен для корректировки специфики языка. Инженеры Google не занимаются созданием поискового интелллекта, который определяет вот эти тексты хорошими, правильными, а те тексты глупыми и неинтересными.

Качество материала (в т.ч. текстов) определяют положительные сигналы (то же юзабилити сайта и отзывы о нём). А больше всего интерес аудитории. Сайты с плохим материалом вспыхивают и быстро угасают, либо находятся в постоянной заднице без развития. Но опять же, есть и другие неоднозначные случаи: сайт начинал, как копипастер, вырос до отличного СДЛ или некогда уважаемый ресурс со сменой хозяев стал спам-коллектором.

Мэтт Каттс: «Около 25-30% контента в сети является дублированным»:


Е.Камская:
Чтобы получить высокую оценку Яндекса, стопроцентной уникальности текстов недостаточно.
Для Google эта "уникальность" вообще ни о чём не говорит. И не контент должен быть уникальным, а сам сайт в целом. Не такой, как все, чем -то отличаться, чем-то привлечь и оставить в подписчиках посетителя.

А.Липатцев (с форума):
Что же касается колебаний трафика или позиций, то они никому не гарантированы и в такой конкурентной среде, как Ваша. К Вашему сайту нет каких-либо претензий с точки зрения наших рекомендаций, но отсутствие претензий - отнюдь не гарантия высоких позиций. Боритесь за популярность своего ресурса, общайтесь со своими посетителями - у многих из них, наверняка есть очень наивные или наоборот очень откровенные вопросы, дайте им возможность общаться между собой, возможность давать оценки Вашим продуктам и Вашему магазину. Это путь к долгосрочному успеху, за которым может последовать и более высокая популярность в поисковых системах.

Google не измеряет уникальность и точка.

Если кто-то до этого места дочитал, то вполе резонно может задать вопрос: "а почему я тогда не могу создать сайт с тучей рерайтов, офигенным юзабилити, дизайном, проспамить в соцсетях и получть доход с контекстной рекламы?" То есть, если кратко: "не могу вложить столько-то рублей, а потом их отбивать"?

Почему "не можно"? Вполне можно. Только овчинка выделки не стоит - сайт всё равно убьют конкуренты, раскопав систему его развития. Авторское право тоже не даст спокойно и пожизненно получать доход, и, что вероятнее всего, убьёт почти на корню. В контекстной рекламе (с нормальными объявлениями и доходами) тоже не дураки сидят, и способны вычислять замаскированные гс.
Есть такие умельцы, кто проворачивает более-менее удачно подобные схемы, наступая на кактусы и грабли. Но это единицы.

Уникальный сайт - это сайт, предлагающий что-то новое или новым способом, что отличает его от других сайтов

Если посмотреть на интернет магазины, то там ситуация ещё комичнее развивается. Веб-мастера, кто во что горазд, переписывают одни и те же описания товаров, заимствованные у производителей, пытаются пометить их "разметкой авторства" (через Google+, которого уже нет) и получаются в интернет-магазинах целые библиотеки, которые не нужны ни владельцам магазинов, ни самим потребителям/покупателям.

Фабулой, точнее кульминацией выводов, здесь становится вот что: магазины должны оставаться магазинами, без текстовых портянок, и прежде всего работать на своего потребителя, обеспечив ему максимальной комфорт получения услуги, а блоги с обзорами должны оставаться блогами, где нужен именно авторский текст (отличный термин) и никакая торговля  а-ля "посмотри сюда", "за ценой прошу писать на email" и т.д. и т.п. там не нужны.

Потеря позиций чаще происходит по вине веб-мастеров

"У меня украли статьи, теперь мой сайт ранжируется ниже, чем сайт копипастера".
Собственно, ещё одна очень удобная позиция, при которой Google просто обязан бросить юридический спецназ, скрутить по рукам и ногам и забанить копипастера навсегда.
Но это не происходит, и народная молва гласит, что спасение утопающих - дело рук самих утопающих.

Если веб-мастер не следит за сайтом, постит контент и даже не смотрит ни в Поиск, ни в WMT (Инструменты для вебмастеров, которые для этого были изобретены), его сайт либо лежит, либо просто не индексируется из-за метатега Robots с Noindex, а копипастер крадёт у него всё подчистую, то почему же тогда виноват Google? Для этого есть регулирующие механизмы местного законодательства, суд в конце концов.

Что касается DMCA, то лояльности ожидать от этого метода не стоит. Во-первых, заявок слишком много. Во-вторых, никто не кинется защищать контент, не имеющий интеллектуальной ценности. А такого контента в рунете завались.

Ситуация: Не первый раз сталкиваюсь с ситуацией, когда опубликованная новостным агрегатором (novoteka.ru, newsfiber.com) часть публикации, ранжируется Google выше первоисточника.
Ответ (на 37:52).

Итог.
Подведём итог вышенаписанному тексту. В какой-то мере он уникальный :-). Но не полностью и не в процентах. Неуникален он тем, что это уже было и повторяется. Уникален своей подачей, я надеюсь :-).

И так, мы определились со значением "уникальность", что это не тоже самое, что принято считать. Уникальность надо придумать, затем воплотить и донести до аудитории. Без какой-то конкретной фишки, проект с рождения обречён. Поэтому в рунете так много брошенных и взломанных сайтов.

Полезные ссылки:
Последствия от цитирования других источников.
Мэтт Каттс "Как сделать страницы на моём сайте уникальными"?
Индекс авторитетности. Может ли один сайт быть авторитетен сразу в нескольких тематиках? (на 9.52 ответ)