Пометка про ИИ оказалась красным флагом для людей. Даже если контент в действительности был создан человеком.
Заголовки новостей, помеченные как сгенерированные нейросетью, заставляют людей меньше доверять такой информации. Это выяснили ученые из Университета Цюриха, которые провели необычный онлайн-эксперимент. Об исследовании они рассказали в журнале PNAS Nexus.
Специалисты создали 16 новостных заголовков — по восемь правдивых и ложных. Каждую группу поделили пополам в зависимости от того, придумал вариант человек или сгенерировал ИИ. Затем почти 5 тыс. добровольцев из США и Великобритании попросили оценить точность заголовков и желание поделиться текстом с другими людьми.
Участников поделили на пять групп. Добровольцам из первой получили список, в котором сгенерированные заголовки получили соответствующую пометку. Во второй группе такую маркировку сделали только для четырех ИИ-вариантов, а в третьей участников решили запутать. Четыре заголовка, созданных нейросетью, отметили как сочиненные людьми, и наоборот. В еще одном варианте все ненастоящие предложения промаркировали как ложные. В последнюю, контрольную категорию вошли заголовки без каких-либо пометок.
Оказалось, что люди считают варианты, которые якобы сочинила нейросеть, менее точными, а также они реже хотят ими делиться. На их мнение не повлиял тот факт, была ли информация правдивой. Но самый сильный эффект тем не менее наблюдался в категории заголовков с пометкой «Ложь».