Специалисты Массачусетского технологического института опубликовали в журнале Pattern статью, в которой рассказали о своих опасениях из-за того, что некоторые модели искусственного интеллекта, как утверждают авторы исследования, научились «обманывать» пользователей.
Исследовательская группа под руководством Питера Парка обнаружила, что системы искусственного интеллекта могут обманывать игроков в онлайн-играх или обходить CAPTCHA. Пак предупреждает, эти, казалось бы, тривиальные примеры могут иметь серьезные последствия в реальной жизни.
Так, например, один из примеров коснулся популярного чат-бота GPT-4. ИИ-модель выдавала себя за незрячего человека и просила других пользователей помочь им в обходе каптчи на том или ином сайте.
Ещё один пример — «Цицерон», искусственный интеллект, который задумывался, как честный игрок в компьютерных играх. Во время одной из игровых сессий, играя за Францию, нейронная сеть объединилась с Германией, которую контролировали обычные пользователи, чтобы напасть на Англию. Изначально же, ИИ утверждал, что будет всеми силами защищать британский флаг.
Пак поясняет, в отличие от традиционного программного обеспечения, системы искусственного интеллекта с глубоким обучением «развиваются» в процессе, похожем на селекцию. Их поведение может быть предсказуемым во время тренировки, но позже может стать неконтролируемым. И в ближайшем будущем это может стать настоящей проблемой.