Обновление алгоритма поисковой системы Google
5 марта 2024 года Google объявил о масштабном обновлении алгоритмов поисковой системы, целью которого будет сокращение количества написанного нейронными сетями контента на 40%.
Это обновление началось с применения значительного количества ручных действий к сайтам, которые были полностью удалены из индекса, получив санкции за использование ИИ-контента.
- Была произведена выборочная ручная проверка 79 тыс. крупных сайтов. На часть сайтов были наложены санкции за интеграцию контента, сгенерированного нейросетями.
- Совокупная потеря трафика составила более 20 млн ежемесячных посетителей.
- 3 сайта с более чем 1 млн органического трафика в месяц были полностью деиндексированы:
zacjohnson.com
beingselfish.in
equityatlas.org
Интересным моментом среди этих сайтов является то, что такой огромный поток поискового трафика был набран за очень короткое время.
- 100% сайтов с санкциями использовали ИИ-сгенерированный контент.
- На 50% сайтов 90-100% контента было сгенерировано ИИ.
Также 5 марта веб-ресурсы начали получать уведомления в Google Search Console типа Pure Spam:
Подобные уведомления могут предвещать полную деиндексацию сайта.
В исследовании originality.ai приложена интересная статистика, которая показывает процентное соотношения сгенерированного контента по отношению к общему контенту сайта на уже озвученных деиндексированных сайтах:
У большинства сайтов практически весь контент был сгенерирован с помощью нейросетей. Но также есть и случаи, где ИИ-контент присутствует в небольших количествах.
Какие выводы можно сделать?
- Сейчас Google расценивает преобладающее использование сгенерированного контента (в процентном соотношении со всем контентом) на сайте как спам, независимо от того, насколько качественный материал получается на выходе.
- Если сгенерированный контент совсем некачественный или вводит в заблуждение, то санкции могут получить сайты даже с малым процентом его использования.
- Практически все деиндексированные сайты (не менее 95% от общей массы) в разных количествах использовали сгенерированный контент.
- Пока что проверки проходят в ручном режиме, но вопрос их автоматизации остается делом времени.
Возникает вопрос: почему такой контент стал приравниваться к спаму, если по заверению Google, «автоматические системы обнаружения спама не прекращают работу никогда»? В таком случае, исключенный из выдачи сгенерированный контент должен был уже на начальном этапе быть отсеян и не допущен к ранжированию в поисковой выдаче, считаясь некачественным.
Также данное нововведение частично противоречит ранее измененной информации о работе алгоритмов поисковой системы с формулировки «контент, написанный людьми, для людей, в результатах поиска» на «контент, созданный для людей». Однозначного ответа нет, но факты остаются фактами. И сейчас главное понять — как же использовать сгенерированный нейросетями контент или же вовсе от него отказываться.
Использовать ли сейчас контент на сайте, сгенерированный ИИ?
На текущий момент под ручные санкции попали сайты, у которых практически не было контента, написанного человеком. Полного запрета на генерацию контента нейронными сетями нет, но нужно знать меру, так как сейчас начинает появляться понятие: «спам сгенерированным контентом» и, вероятнее всего, это не всегда зависит от качества такого контента, а скорее от его количества на сайте, о чем предупреждают в блоге Google:
«Мы всегда придерживались такого принципа: контент, созданный с помощью средств автоматизации (в том числе генеративного ИИ), считается спамом.»
«Новое правило поможет людям понять, что создание масштабируемого контента считается злоупотреблением.»
Также Google дает определение злоупотребления контента в данном случае — это когда на сайте публикуются чужой конент, при этом не контролируется его создание/размещение и не принимается участие в подготовке контента, и при этом цель состоит в том, чтобы манипулировать рейтингом в Google Поиске.
На первый план выходит контроль создаваемого нейросетями контента: фактчекинг, вычитка и адаптация под требования системы поиска, учитывая потребности целевой аудитории и направление бизнеса, стоит создавать качественный контент.
Бесконтрольное наполнение сайта материалами, созданными при помощи нейросетей без дальнейшей проверки, рискует не просто принести потерю трафика, но и полное исключение из поиска.
Такие санкции в будущем могут применяться не в ручном, а в автоматическом режиме.
Желательно, чтобы объем сгенерированного контента не превышал 50% контента всего сайта.
Например, если раздел «Блог» на вашем сайте включает только ИИ-контент, то лучше уже сейчас удалить эти статьи, либо переписать их, тем самым «очеловечив» текст. Также стоит хотя бы частично отказаться от генерации контента на посадочных страницах сайта, либо больше внимания уделять проверке сгенерированного контента.
Используйте нейросети как дополнительный инструмент, который поможет в поиске идей и информации, но не забывайте о контроле публикаций. Количество не должно ставить под угрозу качество. Новый алгоритм Google дал четко понять, что больше не значит лучше.