Добавить новость

АльфаСтрахование оптимизирует операционный учет с Proceset

Банде спецназа подбирают заказчиков // Убийства в 2003 году в Москве совершались за вознаграждения

Врач Елиашевич объяснила, когда пивной животик становится угрозой для здоровья

Плачущий Эрдоган и ряд задержаний: новые подробности о пожаре на курорте в Турции

Новости по-русски


Новости сегодня

Новости от TheMoneytizer

LLM будут врать вечно. Сможем ли мы когда-нибудь доверять искусственному интеллекту?

Несмотря на впечатляющий прогресс языковых моделей, они по-прежнему страдают от серьезной "болезни" - так называемых галлюцинаций, когда ИИ выдает ложную или бессмысленную информацию. В одном из недавних исследований выдвигается предположение, что lданная проблема - не временный сбой, а фундаментальная особенность работы нейросетей. Если это действительно так, нам придется пересмотреть подход к ИИ.

Обзор исследования

Статья под говорящим названием "Большие языковые модели всегда будут галлюцинировать, и нам придется жить с этим" выдвигает смелый тезис: галлюцинации в ИИ неизбежны из-за самого принципа устройства этих систем. Авторы утверждают, что независимо от того, насколько мы усовершенствуем ИИ - будь то улучшение архитектуры, увеличение объема данных или более умная проверка фактов - определенный уровень галлюцинаций всегда будет присутствовать.

Их аргументация основана на математической теории. Используя концепции из теории вычислений и теоремы Гёделя о неполноте, исследователи показывают, что некоторые ограничения непреодолимы.

Авторы выстраивают свою позицию через серию математических выкладок, каждая из которых демонстрирует неизбежность галлюцинаций в природе больших языковых моделей. В конце статьи обсуждаются практические и этические последствия этого факта.

Если они правы, нам придется пересмотреть свои цели в отношении ИИ-систем, - особенно в том, что касается достижения их полной надежности.

Простое объяснение

Работу больших языковых моделей можно сравнить с игрой, где вас просят описать картинку, но вы не видите ее целиком. В каких-то случаях вы сможете угадать, чего не хватает, но в других - ошибетесь, потому что у вас нет полного изображения, и в скрытых частях может оказаться что-то, чего вы предугадать ну никак не могли. Именно так работают галлюцинации ИИ: система заполняет пробелы, но не всегда делает это правильно.

Авторы статьи утверждают, что это не признак несовершенства технологии, а основополагающий принцип работы ИИ. Сколько бы мы ни дообучали эти системы, они никогда не смогут знать абсолютно все. И даже если бы у них был доступ ко всем данным мира, существуют фундаментальные математические ограничения, не позволяющие системам всегда безошибочно извлекать необходимую информацию.

Главный вывод заключается в том, что вместо попыток сделать ИИ безупречным, нам следует принять его недостатки и сосредоточиться на том, как управлять ими наиболее эффективно.

Из оригинального исследования: стадии генерации LLM и стратегии борьбы с галлюцинациями на каждой из них

Техническое объяснение

Опираясь на математическую аргументацию, исследователи демонстрируют неминуемость галлюцинаций в LLM.

Во-первых, они обосновывают это неполнотой информации, ссылаясь в том числе на теорему Гёделя и другие аналогичные утверждения, показывающие невозможность создания датасета, содержащего абсолютно все факты.

Во-вторых, они исследуют процесс извлечения информации, проводя параллели с известной проблемой в теории вычислений - проблемой допустимости, являющейся неразрешимой. Проще говоря, это значит, что от моделей ИИ нельзя ожидать 100% точности при извлечении информации. Аналогичный вывод они делают и в отношении интерпретации пользовательских запросов: идеальное понимание намерений юзера также недостижимо.

Наконец, они анализируют сам процесс генерации языка. Доказывая, что проблема остановки (определение момента завершения процесса) непреодолима для LLM, они утверждают, что системы не способны предсказать результат их собственной генерации до ее завершения. Это открывает путь для возникновения галлюцинаций.

В статье также показано, что никакая система проверки фактов не может исправить все галлюцинации. Даже идеальный фактчекер не способен преодолеть фундаментальные вычислительные ограничения, лежащие в основе этой проблемы.

Критическая оценка

Хотя статья предоставляет довольно убедительные математические доказательства, некоторые моменты требуют дальнейшего изучения.

Во-первых, авторы работы широко трактуют само понятие "галлюцинации". Создается впечатление, что клеймо "галлюцинация" ставится на любое отклонение от идеального знания, но на практике многие ИИ-системы эффективно решают поставленные задачи даже при наличии небольших погрешностей. Для многих вариантов практического применения хватает "удовлетворительного" результата, несмотря на периодические неточности.

Во-вторых, статья рассматривает только детерминированные исходы, тогда как современные ИИ-системы работают на основе вероятностных моделей. Это может означать, что выводы о неразрешимости не полностью применимы. Даже если идеальное поведение недостижимо, можно снизить уровень галлюцинаций до приемлемого минимума.

Статья также выиграла бы от бóльшего количества эмпирических доказательств и проверки этих идей на реальных ИИ-моделях. Кроме того, исследование ограничивается анализом трансформерных архитектур, оставляя открытым вопрос о применимости выводов к другим архитектурам ИИ.

Наконец, в статье не рассматривается, как люди справляются с нехваткой информации и ошибками в собственном мышлении. Сравнение галлюцинаций ИИ с человеческими ошибками могло бы добавить ценную перспективу.

Заключение

Если выводы статьи верны, нам, возможно, придется пересмотреть подход к разработке и использованию ИИ-систем. Вместо погони за совершенством мы должны сосредоточиться на том, как контролировать и минимизировать эффект галлюцинаций. Важно также объяснять пользователям реальные возможности ИИ и разрабатывать приложения, которые смогут эффективно работать даже при случайных ошибках.

Я считаю, что это исследование поднимает важные вопросы:

  • Как мы можем оценить и уменьшить реальное влияние галлюцинаций?

  • Существуют ли новые архитектуры ИИ, которые могли бы избежать некоторых из этих проблем?

  • Как должны измениться нормативные акты и этические стандарты, чтобы учесть тот факт, что у ИИ всегда будут изъяны?

А что думаете вы? Убедили ли вас приведенные доказательства? Как эти выводы повлияют на развитие языковых моделей и наше доверие к ним?


(https://habr.com/ru/compa...)

Читайте на 123ru.net


Новости 24/7 DirectAdvert - доход для вашего сайта



Частные объявления в Вашем городе, в Вашем регионе и в России



Smi24.net — ежеминутные новости с ежедневным архивом. Только у нас — все главные новости дня без политической цензуры. "123 Новости" — абсолютно все точки зрения, трезвая аналитика, цивилизованные споры и обсуждения без взаимных обвинений и оскорблений. Помните, что не у всех точка зрения совпадает с Вашей. Уважайте мнение других, даже если Вы отстаиваете свой взгляд и свою позицию. Smi24.net — облегчённая версия старейшего обозревателя новостей 123ru.net. Мы не навязываем Вам своё видение, мы даём Вам срез событий дня без цензуры и без купюр. Новости, какие они есть —онлайн с поминутным архивом по всем городам и регионам России, Украины, Белоруссии и Абхазии. Smi24.net — живые новости в живом эфире! Быстрый поиск от Smi24.net — это не только возможность первым узнать, но и преимущество сообщить срочные новости мгновенно на любом языке мира и быть услышанным тут же. В любую минуту Вы можете добавить свою новость - здесь.




Новости от наших партнёров в Вашем городе

Ria.city

Банде спецназа подбирают заказчиков // Убийства в 2003 году в Москве совершались за вознаграждения

Mash: кандидату в депутаты от ЛДПР грозит десять лет колонии за таран машины ДПС

Пенсии в феврале 2025 года: кого ждет повышение

Врач Елиашевич объяснила, когда пивной животик становится угрозой для здоровья

Музыкальные новости

В городском округе Домодедово проведена агитационно-разъяснительная работа с населением о сохранности имущества.

СКА победил лидера Запада «Локомотив» и прервал серию из 4 поражений в КХЛ

СТИЛЬНЫЙ И МОЩНЫЙ ОЧИСТИТЕЛЬ ВОЗДУХА LG PURICARE AEROBOOSTER ДЛЯ СОЗДАНИЯ КОМФОРТНОЙ АТМОСФЕРЫ В ДОМЕ

Суд продлил арест еще трем фигурантам дела о мошенничестве с квартирой Долиной

Новости России

Мастер-класс и обучение правилам пожарной безопасности на объектах спорта

Русско-испанский разговорный клуб объединил подростков из стран Латинской Америки и Европы

За 2024 г. объем добычи угля в Якутии составил 49,4 млн т

Врач Елиашевич объяснила, когда пивной животик становится угрозой для здоровья

Экология в России и мире

«585*ЗОЛОТОЙ» открывает секреты собственного производства в новой рекламной кампании

Стоматолог клиники «Мегастом» Татьяна Ильина: эрозия зубов и ее причины

Дочь легендарного генерала Джамшида Нахичеванского передала оберег своего отца в дар Армении (Институту востоковедения РАУ)

Врачи «Будь Здоров» на страже здоровья посетителей катка «Стрелка»

Спорт в России и мире

Михаил Кукушкин удачно стартовал на турнире во Франции

Зверев пробился в полуфинал Открытого чемпионата Австралии

Русские девушки взяли реванш за финал Олимпиады-2024. Холодная месть Андреевой и Шнайдер в жаркой Австралии

Павлюченкова уступила Соболенко в ¼ финала Australian Open

Moscow.media

Заместитель управляющего Отделением Фонда пенсионного и социального страхования Российской Федерации по г. Москве и Московской области Алексей Путин: «Клиентоцентричность - наш приоритет»

Мужчина погиб под колёсами поезда

Тундра Чаунского района

В 2024 году 283,4 тысячи женщин и новорожденных Московского региона получили услуги по родовым сертификатам











Топ новостей на этот час

Rss.plus






Врач Елиашевич объяснила, когда пивной животик становится угрозой для здоровья

АльфаСтрахование оптимизирует операционный учет с Proceset

Mash: кандидату в депутаты от ЛДПР грозит десять лет колонии за таран машины ДПС

Строим системный бизнес с ABR.PRO. Программа "Системный предприниматель"