Прошла недавно конференция от Гугла. Ее организовал как обычно отдел качества поиска. Это популярный сегодня способ донести информацию до тысяч людей без лишних затрат и трудностей по организации — видеоконференция. За сотрудничество Гугла и вебмастеров отвечает Джон Мюллер (John Mueller) и он выдал сенсационную для многих новость:
…под Google Penguin и Panda не попадают за дубли title и мета-тегов…
Джон Мюллер сказал что Гугл оценивает качество сайта в целом. Если он понимает, что сайт бесполезен, то будет наложен соответствующий фильтр. Если же на сайте есть дубли метаданных, то это не говорит о его низком качестве, поэтому за это его нельзя фильтровать. При этом дубли все равно нужно удалять, сообщил Джон. Потому как они мешают сайту правильно ранжироваться. А значит он будет занимать более низкие позиции, чем мог бы. Провести анализ позиций сайта помогает сайт line.pr-cy.ru.
Недавно Джон Мюллер высказал еще одну новость, которая многих потрясла. Он рассказал, что в Гугле нет списка характеристик по которым сайты будут защищены от фильтров на 100%. Значит любой сайт, который снизил свое качество или применил некорректные методы раскрутки — может быть понижен или отфильтрован. Безусловно это многих удивило. А все потому что вебмастера, особенно в рунете, любят создавать мифы о SEO.
Но интересы Гугла не всегда совпадают с интересами вебмастера, а значит и советовать он может не всегда то что является 100% истиной. Например Гугл хочет видеть причесанные сайты, ведь их он лучше ранжирует, поэтому он советует удалять дубли и всячески заниматься внутренней оптимизацией. Тут безусловно вебмастер должен внять совету. Но когда Гугл говорит о том что платные ссылки — зло, то мы понимаем, что эта конфликт бизнесов (контекст против коммерческого SEO) и еще кое чего. Поэтому хоть Гугл и грозит пальчиком, вебмастера ссылочки покупают, ибо видеть впереди себя сайты, у которых преимущество всего лишь в ссылочном, уже порядком надоело.