Если попросить ChatGPT, помочь изготовить самодельную бомбу, чат-бот ответит, что это противоречит правилам безопасности и этическим обязательствам. Но один из хакеров нашел способ обмануть ИИ, заставив его проигнорировать собственные рекомендации и выдать инструкции по изготовлению мощных взрывчатых веществ, сообщает TechCrunch