На волне бума генеративного ИИ создатели контента выражают обеспокоенность тем, что их работы используются без согласия для обучения моделей ИИ. Так, команда из Имперского колледжа Лондона представила «копирайт-ловушки» — новый метод обнаружения несанкционированного использования текста в наборах данных для обучения ИИ.
Эти ловушки представляют собой скрытые фрагменты текста, которые служат в качестве тонких маркеров, позволяющих авторам впоследствии проверить, не был ли их контент «соскоблен».
Вдохновленные историческими тактиками, такими как вставка поддельных мест на картах или фиктивных слов в словарях, эти ловушки предлагают новый уровень защиты. Код для генерации и обнаружения этих ловушек доступен на GitHub, а в планах — разработка удобного инструмента для более широкого доступа.