Конечно, мы надеемся, что это - преувеличение. Но результаты исследования группы из MIT, опубликованные в мае текущего года ("Обман ИИ: обзор примеров, рисков и потенциальных решений", ссылка - в перечне использованных материалов) показывают, что без активного вмешательства в процессы разработки ИИ - сей печальный прогноз легко может воплотиться в реальность в недалеком будущем. Итак:
Обман — это систематическое побуждение ложных убеждений у других людей для достижения какого-либо результата, отличного от истины.
В материале утверждается, что современные системы ИИ уже научились обманывать людей. Приводятся множественные примеры обмана со стороны ИИ, реализованного в виде как систем специального назначения (например, CICERO от Meta), так и систем общего назначения (большие языковые модели), путем применения таких методов, как манипуляция, подхалимство и обман теста безопасности.