Гугл изменил критерии качества

Можно сказать, что критерии не изменились, но контроль их соблюдения усилился. Эти принципы довольно очевидны, но придерживаться их в рамках одного сайта бывает невозможным.

Но делать что-то надо. Сначала стоит обратить внимание на уникальность контента, при этом как в мировой паутине, так и в рамках одного ресурса.

Первым делом необходимо избавиться от дублей контента. Это может быть и краткая новость в виде фрагмента полной, и страницы с датами, тегами, разделами и т. п., одним словом это те участки текста которые могут дублироваться. Все это должно быть закрыто от индексации с помощью robots.txt.

Не нужно забывать закрывать от индексации все страницы, которые не содержат текстового материала, это могут быть те страницы, которые созданы не для посетителей, служебные страницы и прочее.

Например, страницы поиска по сайту, списки поисковых запросов или профили пользователей. Тоже самое относится и к страницам с неуникальным содержанием, копипасту и нечитаемым генерированным текстам.

Даже незначительное количество «плохих» страниц может пагубно отразиться на судьбе всего сайта и понизить ресурс в выдаче. Поэтому вы должны внимательно следить за содержимым сайта.