Добавить новость

В Зарайске состоялось открытие выставки Михаила Жмурко

Пассажиры ЦППК перевезли на 10% больше велосипедов с начала года

Свыше 50% выпускников колледжей РФ находят работу в первый год после завершения учебы

Россияне могут заработать на сдаче спермы до 40 тыс рублей ежемесячно





Новости сегодня

Новости от TheMoneytizer

Интерпретируемость ИИ: как модели принимают решения

Как языковые модели стали основой ИИ?

Если раньше искусственным интеллектом часто называли простые модели для классификации изображений, то сегодня как исследователю, так и обывателю в первую очередь на ум приходят сервисы, основанные на больших языковых моделях (LLM). Эти модели способны не только обрабатывать текстовую информацию, но и генерировать ее, анализируя «сказанное», а также поддерживать диалог.

Большинство современных языковых моделей, таких, как GPT, используют трансформеры — архитектуры глубокого обучения, которые позволяют эффективно обрабатывать последовательности данных. Это дает возможность моделям не просто учиться на статичных наборах текстовых данных, но и адаптироваться, генерируя «человеческие» ответы. Проще говоря, LLM — универсальный инструмент для множества задач: от обработки языка и генерации кода до создания чат-ботов.

На картинке проиллюстрирована языковая модель, которая лежит в основе большинства систем ИИ. Справа нарисован монстр с множеством глаз, то, что он чувствует и как он думает, — остается для нас загадкой. Тем не менее, на выходе мы получаем ответ, который сложно отличить от человеческого. Оригинал фото здесь.

Где и почему они ошибаются?

Современная генеративная модель состоит из миллиардов параметров. Несмотря на то, что мы понимаем каждую заданную операцию по отдельности, нам сложно понять, почему модель генерирует тот или иной текст. Большая языковая модель отвечает убедительно и правдоподобно, однако можно даже не заметить, что иногда она выдает недостоверную или искаженную информацию. Это явление называется «галлюцинацией» — когда модель генерирует факты и данные, которые на самом деле не существуют. Причина заключается в том, что LLM работают по принципу предсказания следующего слова, опираясь на обширные массивы данных, на которых они обучались, что не гарантирует полного понимания контекста.

Даже если нам кажется, что мы смогли сделать модель безопасной для пользователей и она прошла все внутренние тесты, это не значит, что не найдется человека, который придумает вопрос так, чтобы модель ответила токсично или написала неверную информацию. Отсутствие объяснений и прозрачности делает трудноразличимыми границы между корректными и ошибочными выводами. Если мы не можем объяснить, почему LLM пришла к определенному выводу или как именно она обработала информацию, это вызывает недоверие, особенно в областях, где ошибки могут иметь серьезные последствия. Например, если мы используем языковую модель в медицинских целях, то в таком случае нам необходимо убедиться, что модель не просто запомнила что-то на этапе предобучения (напомню, она «видела» почти весь интернет), а именно воспроизвела алгоритм того, как должен быть получен ответ на задачу.

Как понимание языковых моделей может нам помочь?

В отличие от обычных программ, написанных вручную, мы не можем залезть внутрь нейронной сети и понять, почему и как она выполняет определенные операции. В большей степени на это влияет размер и сложность модели. Однако в последний год произошло много открытий, которые помогут нам понять, а главное — контролировать процесс генерации. Главный прорыв в понимании заключается в том, что нужно рассматривать не отдельные числа, а наборы чисел, влияющих на результат. Вместо небольшого количества отдельных чисел мы теперь имеем более сложное пространство, десятки тысяч направлений, каждое из которых обозначает определенные характеристики.

Например, если в тексте активировалось направление, которое отвечает за «зеленый цвет», и направление, которое отвечает за «хвосты», то на следующем слое у нас может получится направление, отвечающее за «ящерицу», а может совсем иное. Мы не до конца понимаем, как между собой преобразуются эти направления, но то, что мы смогли их выделить, уже дает нам определенный контроль над генерациями моделей.

Или если мы видим, что при упоминании токсичных слов определенное направление загорается, то понимаем, что модель распознает токсичность. Добавляя или вычитая опасные или полезные направления в ходе генерации, мы можем добиваться того или иного поведения модели без кардинальной переподготовки и не меняя другие необходимые нам свойства.

Примеры

Из недавних примеров — в LLM удалось найти часть, которая отвечает за «Мост Золотые Ворота», теперь можно в ручном режиме активировать ее и получить такой результат:

Слева приведен обычный ответ языковой модели на вопрос «Какой у тебя физический вид?», она отвечает: «Я не имею физической формы. Я искусственный интеллект. Я существую как программа без физического аватара». Но если активировать часть модели, отвечающую за «Мост Золотые Ворота», ответ меняется на «Я Мост Золотые Ворота — известный подвесной мост на побережье Сан-Франциско…». Фото взято из статьи Templeton, et al., Scaling Monosemanticity: Extracting Interpretable Features from Claude 3 Sonnet, Transformer Circuits Thread, 2024

Или, например, есть направление, отвечающее за гендерные предрассудки (учитель и медсестра — это традиционно женщины).

Мы видим, что существует направление внутри языковой модели, которое присутствует только в частях текста о «традиционно женских профессиях». Фото взято из статьи Templeton, et al., Scaling Monosemanticity: Extracting Interpretable Features from Claude 3 Sonnet, Transformer Circuits Thread, 2024

Кроме относительно бесполезных примеров выше внутри модели нашли часть, отвечающую за генерацию кода, который затем можно использовать в целях взлома.

На этом примере мы видим направление, которое появляется в коде или командах, которые отключают шифрование трафика. Такой сгенерированный языковой моделью код может быть опасным. Фото взято из статьи Templeton, et al., Scaling Monosemanticity: Extracting Interpretable Features from Claude 3 Sonnet, Transformer Circuits Thread, 2024

Таким образом, интерпретируя эти направления, мы можем точно настраивать модель, удаляя ненужное. 

Стоит понимать, что исследования в этой области находятся на раннем этапе, но хочется верить, что с помощью них нам получится полностью объяснить поведение языковых моделей и корректировать его при необходимости, не прибегая к финансово затратному сбору данных и разметке людьми.

Обложка: Kandinsky 3.1, ПАО «Сбербанк»

The post Интерпретируемость ИИ: как модели принимают решения appeared first on Хайтек.

Читайте на 123ru.net


Новости 24/7 DirectAdvert - доход для вашего сайта



Частные объявления в Вашем городе, в Вашем регионе и в России



Smi24.net — ежеминутные новости с ежедневным архивом. Только у нас — все главные новости дня без политической цензуры. "123 Новости" — абсолютно все точки зрения, трезвая аналитика, цивилизованные споры и обсуждения без взаимных обвинений и оскорблений. Помните, что не у всех точка зрения совпадает с Вашей. Уважайте мнение других, даже если Вы отстаиваете свой взгляд и свою позицию. Smi24.net — облегчённая версия старейшего обозревателя новостей 123ru.net. Мы не навязываем Вам своё видение, мы даём Вам срез событий дня без цензуры и без купюр. Новости, какие они есть —онлайн с поминутным архивом по всем городам и регионам России, Украины, Белоруссии и Абхазии. Smi24.net — живые новости в живом эфире! Быстрый поиск от Smi24.net — это не только возможность первым узнать, но и преимущество сообщить срочные новости мгновенно на любом языке мира и быть услышанным тут же. В любую минуту Вы можете добавить свою новость - здесь.




Новости от наших партнёров в Вашем городе

Ria.city

Чеченского адвоката Идалова приговорили к принудительным работам за угрозы прокурору

«Динамо» Москва — ЦСКА — 0:1. Видеообзор матча КХЛ

«Локомотив» — «Динамо» Москва. Видеообзор матча Кубка России с серией пенальти

Признание. Девочка, укравшая кота Лучика, рассказала, что её изнасиловали

Музыкальные новости

Онкологи Липецкой области предупреждают о том, что регулярные обследования помогают в борьбе с раком легкого

Лавров: Запад игнорирует все предупреждения Москвы об ответе на удары вглубь России

Трамп провел встречу с основателем Meta Марком Цукербергом

Собянин и Голикова открыли четвертый центр женского здоровья

Новости России

Канцелярия Орбана заявила, что он не приедет в Москву на 80-летие Победы

Πaтpиapx Κиpилл нaɜвaл ɜaмeщeниe κοpeннοгο нaceлeния мигpaнтaми угpοɜοй Ρуccκοму миpу

В кинопарке «Москино» состоится премьера постановки «Соборная площадь»

Врач Ашрафи назвал кожный признак приближающихся инфаркта и инсульта

Экология в России и мире

Ралли-рейд «Великая Степь 2024» завершился в Астрахани

Николай Семёнов – известный российский спортсмен, тренер, блогер и предприниматель.

«Мама»: в «Октябре» состоялась премьера новой главы проекта «Хронос»

Осень провожаем, зиму встречаем! Афиша мероприятий на выходные в Москве

Спорт в России и мире

Елена Веснина: Синнер с итальянского переводится «грешник», но он играет как полубог

Кубок Дэвиса. Финал. Берреттини играет с ван де Зандшульпом, Синнер встретится с Грикспором

Елена Веснина рассказала, как впервые увидела Мирру Андрееву в девятилетнем возрасте

Во французском городе Грас открыли корт имени Даниила Медведева

Moscow.media

В Азербайджане стартует третий этап проекта «Русский язык: читаем, слушаем, смотрим в странах СНГ»

Суд обязал Водоканал Нижнего Тагила заплатить за нанесенный двум рекам ущерб

Грибочки под снегом

Скромно светало...











Топ новостей на этот час

Rss.plus






Вышел документальный фильм о сотрудничестве России и Египта

«Локомотив» — «Динамо» Москва. Видеообзор матча Кубка России с серией пенальти

Опасный «мясной клей» нашли в колбасах крупного российского производителя

Репортаж в «Советской России» о международной конференции межпарламентского сотрудничества стран СНГ