В марте 2024 года Яндекс и Google обновили алгоритмы определения качественного контента. Поисковые системы установили жесткие санкции для сайтов, где размещаются неоригинальные и некачественные тексты – от понижения позиций в выдаче до дезиндексации сайтов. Это стало явным сигналом к тому, что генерировать тонны контента с помощью искусственного интеллекта без потери трафика вряд ли получится. Да и будет ли это эффективно? Ситуация неоднозначная: с одной стороны, тренд на нейросети игнорировать нельзя, с другой – нужно учитывать требования поисковиков к качественному контенту, которые, кстати, в эпоху популярности AI нисколько не изменились. Создаем контент мы по-прежнему в первую очередь для потенциальных клиентов, а не для роботов.
Попробуем разобраться с этим в статье – расскажем, как создавать контент с учетом новых правил, чтобы не потерять позиции сайта, а затем поговорим о том, можно ли все-таки использовать нейросети для написания текстов.
В марте Google начал обновление основного алгоритмического ядра – Core Update. По словам Элизабет Такер, директора корпорации по продуктам для поиска, цель апдейта систем ранжирования заключается в отображении наиболее полезной информации и уменьшении неуникального контента в поисковой выдаче. Google усилит приоритизацию контента по принципам E-E-A-T (опыт, экспертность, авторитетность, достоверность). При этом будут понижаться позиции сайтов, размещающих тексты, сгенерированные нейросетями или созданные при помощи низкокачественного рерайта. В результате обновлений Google планирует сократить количество такого контента на 40 %.
При помощи алгоритма Spam Update Google усиливает борьбу со спамом и сайтами, которые вредят пользователям. Речь идет о следующих нарушениях:
Больше статей на схожую тематику:
Яндекс вслед за Google обновил алгоритм, отличающий полезный контент от низкокачественного. Специальная метрика оценивает ценность и релевантность ответов на запросы пользователей.
При ранжировании страниц на первое место выходят показатели экспертности и доверия пользователей к размещенным материалам. Несмотря на то, что оптимизация по-прежнему важна и влияет на позиции в результатах поиска, контент должен быть полезен людям, а не генерироваться только для повышения сайта в выдаче.
Некачественный контент по версии Яндекса:
Также обновленный алгоритм настроен тщательнее определять качество контента в тематиках, которые имеют отношение к важным сферам жизни пользователей. Речь идет о медицине, юриспруденции, банковской сфере и т.д. Важно, чтобы контент на эти темы был подготовлен или проверен экспертом.
На самом деле, это логичное продолжение политики Яндекса и Google в отношении некачественного контента. Поисковые системы уже давно ставят на первое место полезность материалов, размещаемых на тех или иных сайтах. Вспомним еще раз о факторах Google E-E-A-T (опыт, экспертность, авторитетность, достоверность), которые были введены с целью повысить в результатах выдачи более надежные и прозрачные сайты, чтобы предлагать пользователям полезный и достоверный контент, а не однотипный и бессмысленный.
Сначала поисковики наказывали сайты за неуникальные и откровенно спамные тексты, теперь пришла очередь контента, сгенерированного нейросетями. Новые алгоритмы теперь лучше умеют его распознавать.
Яндекс прямо не объявлял о санкциях, однако очевидно, если в выдаче будут повышаться страницы с полезными материалами, то сайты с неоригинальными текстами будут только понижаться в результатах поиска.
Google будет понижать в выдаче страницы со спамным контентом, а также прибегать к самому жесткому варианту – дезиндексации. Более того, обновленные алгоритмы уже начали работать и с момента полной выкладки Core Update и Spam Update санкции от Google получили 1 446 сайтов. По данным исследования Originality.ai, все эти сайты создавали контент с помощью искусственного интеллекта, как минимум у половины из них доля подобных материалов составляла не менее 90 %.
На других каналах отмечают, что в основном из выдачи были исключены страницы с материалами о том, как манипулировать алгоритмами поиска и генерировать AI-контент без вреда для сайта.
Итак, чтобы не попасть под санкции новых алгоритмов, нельзя делать следующее:
Вопрос о том, можно ли создавать контент с помощью нейросетей, остается открытым.
Возникает впечатление, что поисковики вступили в противостояние с массовым трендом и противоречат сами себе. Ведь тот же Яндекс сделал свою нейросеть, внедрил нейропоиск и научил браузер пересказывать содержание страниц при помощи искусственного интеллекта. Ответ на поверхности: все эти инструменты работают на удобство пользователя. А AI-тексты? Это, на самом деле, вопрос со звездочкой – смотря какой промт напишешь, да и нейросети с каждым релизом становятся все совершеннее.
Представим, что мы собираемся в отпуск (мечтать не вредно) и ищем, какой солнцезащитный крем лучше купить. Вот такой текст по этому запросу сгенерировала YandexGPT:
В тексте есть общая информация о критериях выборах крема, но не предложены конкретные варианты, которые и ищет пользователь. Тема раскрыта поверхностно, и в результатах поиска страница с таким текстом была бы где-то на дне. В статье «Тинькофф Журнала», которая находится в топе выдачи по нашему запросу, этот вопрос развернут, конечно, более подробно. Вот некоторые фрагменты:
Здесь подробно рассказано, зачем нужно пользоваться средством с SPF, и как выбрать крем. Представлена подборка продуктов, которые разделены по типам кожи, и про каждое поясняется отдельно – с ценами и ссылками на маркетплейсы. Эта статья явно будет полезнее для интересующегося пользователя.
Важный момент состоит в том, что не только нейросети пишут плохие тексты, но и люди (сюрприз-сюрприз). Если автор откроет три первых страницы в поиске по своему запросу, возьмет из каждой по 2 абзаца, поставит свой (это в лучшем случае) заголовок, не добавит никакой полезной информации от себя, не сделает текст логичным и понятным, то такая «писанина» не будет отличаться от того, что сделает нейросеть. Это будет 1001 однотипный текст в интернете на ту же тему – от такого контента поисковики и хотят избавляться, и не так важно, кем он сделан – искусственным интеллектом или человеком.
Нейросети – это только инструмент для создания контента. Как и информация, уже размещенная в интернете, – материал, который поможет в подготовке текста. И вопрос в том, как всем этим пользоваться.
Примеры роста кликов, конверсий, заказов и прибыли:
В 2024 году уже невозможно игнорировать нейросети. Специалисты вовсю используют их в подготовке текстов – их удобно применять для составления контент-плана, пересказа и освоения информации большого объема в виде краткой выжимки, создания контента для соцсетей и не только.
Но если вы забиваете простенький промт и размещаете полученный текст на сайте – это плохая стратегия. Если текст отредактировать, будет уже лучше, чем ничего, однако это тоже не панацея – алгоритмы обучены замечать следы AI-генерации. Важно вносить в материал добавочную ценность, делать его полезным и интересным для своей аудитории.
Будем наблюдать, что из этого выйдет – будут ли поспевать поисковые системы за нейросетями, которые развиваются стремительными темпами и умеют все больше, смогут ли обновленные алгоритмы выявлять тексты, сгенерированные искусственным интеллектом?
Оптимальной стратегией, на наш взгляд, будет умело использовать новые инструменты для создания качественного полезного контента. За этим обращайтесь к нашим копирайтерам – напишем тексты для ваших товаров и услуг или подготовим статьи в блог, которые привлекут новых клиентов на сайт =)