Алексей Рыков предупредил о манипуляциях с помощью дипфейков
ИИ-режиссёр Алексей Рыков предупредил о рисках использования дипфейков. Он отметил, что нейросети на основе реальных данных воспроизводят мимику и жесты людей. Эти технологии уже применяются мошенниками для осуществления видеозвонков с синтетическими лицами.
ИИ-режиссёр и предприниматель Алексей Рыков заявил о том, что генеративные нейросети сегодня имеют способность воспроизводить не только облик человека, но и его мимику, жесты, а также поведенческие особенности, что делает дипфейки инструментом манипуляций.
В интервью газете «Известия» Рыков подчеркнул, что при создании реалистичных видеоматериалов нейросети используют реальные фотографии и видео, из которых извлекаются поведенческие модели. Рыков также отметил, что эти технологии уже используются злоумышленниками для осуществления видеозвонков с использованием синтетического лица и голоса. При этом пользователи социальных сетей фактически предоставляют материал для создания своих цифровых копий.
Недавно старший преподаватель кафедры инструментального и прикладного программного обеспечения РТУ МИРЭА Андрей Рыбников в беседе с RT дал советы по защите персональных данных на изображениях документов.