Молодым сайтам вообще выход в топ заказан просто потому, что Google о них ничего не знает (см. "Почему нет трафика у молодых сайтов").
Что касается багов - они бывают и заметны только по корявой выдаче, если в топе гс и нетематические сайты. Ни одна поисковая система от таких ситуаций не застрахована и не может выдавать сугубо сдл. Поэтому индекс всё время корректируется и обновляется новыми фильтрующими механизмами - системами оценки сайтов вроде Панды.
Что остаётся веб-мастеру? Сжать волю в кулак и продолжать бороться за сайт, прокачивая:
контент, нужный людям, и сосредоточиться на:
- юзабилити сайта (пользователи не должны страдать и создавать бесполезную нагрузку на сервер)
- популярности и авторитетности публикаций в целом (личный бренд автора или магазина, см. Мэтт Каттс: «Популярность и авторитетность -- это разные вещи»)
- ссылочном в виде естественных отзывов (годятся любые упоминания, даже с закрытыми ссылками, см. Мэтт Каттс: «Вкладывайте время в получение сложных ссылок, а не в быстрые и спамные»)
- отображении сайта на мобильных устройствах (см. Мэтт Каттс: «Адаптивный дизайн не "проигрывает" в SEO мобильной версии сайта»), глупо же будет уступить позиции просто потому, что сайт не готов для мобильного поиска, который всё растёт и растёт (см. "Создание сайтов, оптимизированных для смартфонов" и "видеовстреча с веб-мастерами - 23.10.14 - создание сайтов, адаптированных для мобильных устройств")
- основах - рекомендациях для веб-мастеров (например, Мэтт Каттс: "Не используйте повторяющиеся описания в description")
- расставании с некачественным ссылочным окружением (см. Мэтт Каттс: "Используйте Disavow Links, не дожидаясь письма от Google", Инструкция по отклонению ссылок, Мэтт Каттс: «Большая работа с плохими ссылками может дать положительный эффект»)
- абсолютном техническом аптайме (это не значит, что Google сразу "забанит" сайт, узнав, что он периодически падает, просто краулер не сможет заходить, сократит время визитов, и поисковик не получит полные данные о контенте, расположенном на сайте)
- избавлении от спама (некачественная реклама, реклама в шапке, плохое соотношение реклама:контент)
- правильной склейке основного и неосновного доменов при помощи редиректа 301.
- непопадании под ручные меры (см. "Меры, принятые вручную")
- правильном отображении сайта для Googlebot (открыть к индексации js и css, см. Мэтт Каттс: «Не закрывайте от поиска JavaScript и CSS»)
- избавлении от битых, малосодержательных страниц и мусорных элементов, а так же элементов, нарушающих чьи либо авторские права
- хороших результатах в PSI
- оптимизации и безопасности
Неплохо было бы усвоить, что нахождение в топе не гарантирует пожизненное сидение там. Сайт может укатиться по множеству причин, одна из которых - плохое состояние сайта и редкая обновляемость.
Google фактически не ориентируется на веб-мастеров, только в редких случаях. Задача Поиска - дать людям то, что они ищут, а не выдавать хорошие позиции сайтам только за то, что на них уникальные сочетания слов.
Почему сайт первое время занимал высокие позиции в поиске, а теперь позиции по всем запросам понизились?
Рекомендую посмотреть и послушать интересные вопросы про структуру сайтов:
И, да - техподдержки в Google нет. Есть форум, есть сообщество и встречи с публичными представителями команды веб-поиска.
Полезные ссылки:
Аудит сайта
Об уникальности контента
У сайта низкий рейтинг в результатах поиска
Санкции Google
Гугл, с ним что то не так. У меня уникальный материал по НЛО, я уфолог, и не пришел зарабатывать деньги. Яндекс отреагировал справедливо, через неделю я вообще, первый.
ОтветитьУдалитьhttp://bova-ufo.ru/
Причем, я вообще дилетант в веб мастерах, и ничего не делал. В гугле мне помогали знающие, и что только не делали, я где то на 5й странице. У меня доходило до 1600 просмотров, 225 хостов, а я как стрлю, так и стою....
В Гугле, впереди меня, на 5 страницах висят форумы уфологов, которые мертвые, и последняя запись была в 2011 году.
Как можно после этого уважать Гугл?