Идея использования искусственного интеллекта для автоматической проверки фактов давно вызывает интерес как способ противостоять лавине дезинформации в интернете. Но в этом вопросе не все так просто, как кажется.
Новое исследование, проведенное специалистами из Университета Индианы, показало, что использование таких технологий может иметь неожиданные результаты. Вместо того чтобы снижать доверие к ложной информации, проверка фактов, выполненная ИИ, в некоторых случаях даже увеличивает вероятность веры в ложные заголовки.
Работа ученых показала, что люди, которые используют проверку фактов, выполненную языковыми моделями ИИ, чаще делятся как правдивыми, так и ложными новостями. Однако уровень доверия у таких пользователей возрастает только к ложной информации, а не к правдивой.
Руководитель исследования Мэтью ДеВерна отметил, что главная проблема заключается в том, как люди воспринимают информацию, предоставляемую ИИ. Несмотря на то что языковая модель правильно определяет 90% ложных заголовков, это не способствует значительному повышению способности пользователей отличать правду от вымысла. Более того, когда ИИ выражает неуверенность в оценке заголовка, люди склонны больше верить в его правдивость.
«Масштабирование фактчекинга с помощью ИИ кажется привлекательным решением, поскольку проверяющие-люди не успевают за темпами распространения ложной информации, особенно генерируемой другими ИИ», — отметил ДеВерна. — «Однако наше исследование демонстрирует, что взаимодействие людей с ИИ может вызывать нежелательные последствия, поэтому важно тщательно продумывать способы внедрения таких инструментов».