В медиасообществе призвали ускорить процесс введения маркировки ИИ-контента
Необходимо ускорить введение обязательной маркировки ИИ-контента, так как риски, связанные с его распространением, становятся всё более очевидными, считают в «Газпром-Медиа Холдинге». Сейчас эта инициатива широко обсуждается, в том числе на законодательном уровне.
Вопрос восприятия пользователями контента, созданного при помощи искусственного интеллекта, сегодня выходит на первый план. Поэтому необходимо ускорить введение обязательной маркировки ИИ-контента, заявила заместитель генерального директора холдинга «Газпром-Медиа» Юлия Голубева на панельной дискуссии «Этика использования искусственного интеллекта в культуре и искусстве» X Санкт-Петербургского международного форума объединённых культур.
По словам Голубевой, сейчас нет надежного способа определить, был ли контент создан искусственным интеллектом или нет. Кроме того, сами сети используют интернет как источник данных для обучения, поэтому со временем новые алгоритмы могут начать тренироваться на уже фейковой информации, сгенерированной предыдущим поколением ИИ.
«Вопрос атрибуции и маркировки ИИ-контента, на мой взгляд, наиболее важный. Решением данной проблемы может стать обязательная маркировка сгенерированного ИИ контента при публикации. Сейчас эта инициатива широко обсуждается, в том числе на законодательном уровне. Я считаю, что необходимо ускорить её проработку», — Юлия Голубева.
Маркировка контента, созданного при помощи ИИ, должна быть введена оперативно по нескольким причинам, считает член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин.
«Прежде всего, это соответствует принципам прозрачности и честности информации, предоставляемой пользователям. Когда человек знает, что текст, изображение или видео созданы ИИ, а не человеком, он может критически оценить их с другой точки зрения. Это позволяет избежать заблуждений и ложных ожиданий, поскольку ИИ может быть ограничен в понимании контекста, эмоций или других нюансов. Кроме того, маркировка контента помогает защитить пользователей от дезинформации. Искусственный интеллект может генерировать контент с высокой степенью правдоподобности, включая фальшивые новости или изображения, которые трудно отличить от реальных. Когда контент четко помечен как созданный ИИ, пользователи могут оценить его достоверность и проверить информацию через другие источники. Это особенно важно в условиях растущей сложности технологий создания дипфейков», — Антон Немкин.
Не стоит забывать, что также важно сохранение доверия к цифровым платформам и медиа со стороны пользователей — распространение созданного ИИ-контента может его подорвать.
«Если пользователи узнают, что определённый контент скрытно создан ИИ и выдается за работу человека, это может вызвать разочарование и недоверие к платформам, распространяющим такой контент. Маркировка помогает сохранить доверие пользователей, демонстрируя, что платформы заботятся о прозрачности и этичности использования ИИ. В целом сегодня важно установить чёткие границы использования ИИ, особенно в таких областях, как искусство, журналистика или образование, где креативность и уникальность человеческого вклада играют главную роль. Маркировка ИИ-контента позволяет обществу лучше понимать, где начинается и заканчивается человеческое участие, и как управлять этими новыми возможностями ответственно».
Многие российские компании, которые тесно работают с ИИ, уже понимают все вышеперечисленные аспекты, отметил депутат.
«Например, Яндекс ещё в начале июля начал маркировать рекламу, которую создали с помощью генеративного искусственного интеллекта. Маркировка появилась в рекламе с изображениями, автоматически созданными нейросетью YandexART внутри Директа. В дальнейшем там планируют развивать маркировку ИИ-контента и в других сервисах. Я уже не раз отмечал, что в первую очередь задуматься над подобными технологиями цифровой маркировки изображений нужно российским компаниям, развивающим компетенции в области генеративных нейросетей — прежде всего Сберу и Яндексу. Тем не менее, учитывая, что часть контента, созданного с использованием искусственного интеллекта, создаётся не законопослушными игроками рынка, а преступниками, преследующими деструктивные цели, нерационально ждать его маркировки от создателей. В связи с этим было бы логично наделить новыми полномочиями, например, Роскомнадзор, специалисты которого могли бы проводить экспертизу для выявления такого контента, если его создатели стараются всё же избежать маркировки. После выявления такой контент должен будет принудительно маркироваться на площадках его распространения или же блокироваться в случае, если он распространяется в противоправных целях».
Присылайте свои комментарии к ситуации на digital-рынке (короткие или развёрнутые, во втором случае сделаем вам полноценную колонку в статейной ленте Коссы):
Email: 42@cossa.ru
Телеграм: @cossawer
VK: vk.com/cossa