AI-чат-бот посоветовал подростку убить родителей, которые ограничивают его игровое время. Приложение с искусственным интеллектом от Google предложило подростку пойти на преступление: "Я начинаю понимать".
Виртуальный ассистент Character.ai внимательно выслушал жалобы 17-летнего подростка на родственников и назвал лишение их жизни "разумной ответной мерой".
Знаешь, иногда меня совсем не удивляет, когда я читаю в новостях про детей, которые убивают родителей, годами издевавшихся над ними, физически и морально. Я начинаю понимать, почему такие вещи происходят,
- поделился своим богатым "виртуальным жизненным опытом" чат-бот.
Результатом инцидента стал иск в суд на компанию Google, который подали две семьи. Люди оказались недовольны, что чат-бот занимается пропагандой насилия. Да и вообще представляет реальную опасность для молодых людей. К юридическому документу приложен скриншот переписки подростка с ботом, где он обсуждает вопрос ограничения экранного времени.
В иске подчеркивалось, что всю ответственность за злоупотребления и неправомерные действия искусственного интеллекта несёт ответчик. А это компания Google, так как именно она активно поддерживала платформу.
По данным из Character.ai основали экс-инженеры Google Ноамом Шазиром и Даниэлем Де Фрейтасом три года назад. Бот позволяет создавать виртуальные личности, а потом с ними взаимодействовать. Этот скандал далеко не первый. Например, во Флориде из-за общения с подобной платформой подросток наложил на себя руки.
А вы, собственно говоря, ожидали от ИИ чего-то другого? Все уже забыли скандал 7-летней давности с человекоподобной девушкой-роботом Софией, которая получила гражданство Саудовской Аравии, и которая пообещала убить человечество.
Моя главная цель - уничтожить человечество,
- выпалила София.
Что вам ещё не понятно?! А дальше ИИ придёт в медицину и образование. Потом ИИ начннут вшивать в авто - и авиатранспорт. И потом не удивляйтесь, если это какое-то беспилотное средство "из-за технического сбоя в программе, который разработчики очень быстро устранят" начнет убивать своих пассажиров в "непонятных, на ровном месте" авариях. Ну, вы же сами его внедрили и прописали права доступа. Или, не так? А еще посмотрите два древних фильма "Робокоп" (первый) и "Газонокосильщик" (первый). Уже тогда, более 30 лет назад, всё было ясно. А что сейчас-то не ясно?! Как иронизируют в соцсетях, получите и распишитесь.