Добавить новость

Сергей Романов представил обновлённую социальную сеть SocialAppe 2024

В Москве возбудили уголовное дело по факту контрабанды тонны прекурсоров для изготовления наркотиков

Автоэксперт Попов опроверг данные о 500 тысячах за перенастройку дорожной камеры

СЕНСАЦИЯ В ЯДЕРНОМ ОРУДИИ: "ПОСЕЙДОН РЭМЫЧ". ДОПОЛНИТЕЛЬНАЯ ТЕХНОЛОГИЯ. Очень важные данные для России и всего мира!



Новости сегодня

Новости от TheMoneytizer

Можно ли управлять искусственным интеллектом?

Доктор Роман Ямпольский (Roman Yampolskiy), эксперт по безопасности искусственного интеллекта, предупреждает о беспрецедентных рисках, связанных с искусственным интеллектом, в своей книге «ИИ: необъяснимое, непредсказуемое, неконтролируемое» (“AI: Unexplainable, Unpredictable, Uncontrollable”). В ходе обширного обзора Ямпольский обнаруживает отсутствие доказательств того, что ИИ можно безопасно контролировать, указывая на потенциальную возможность ИИ вызывать экзистенциальные катастрофы.

Он утверждает, что присущая системам искусственного интеллекта непредсказуемость и повышенная автономность создают серьезные проблемы для обеспечения их безопасности и соответствия человеческим ценностям. В книге подчеркивается острая необходимость расширения исследований и разработок в области мер безопасности ИИ для смягчения этих рисков, пропагандируя сбалансированный подход, отдающий приоритет человеческому контролю и пониманию.

Согласно обширному обзору, в настоящее время нет доказательств того, что ИИ можно безопасно контролировать, и без доказательств того, что ИИ можно контролировать, его не следует разрабатывать, предупреждает исследователь.

Несмотря на признание того, что проблема управления ИИ может быть одной из наиболее важных проблем, стоящих перед человечеством, она остается плохо понятой, плохо определенной и плохо исследованной, объясняет доктор Роман Ямпольский.

В своей будущей книге эксперт по безопасности ИИ Ямпольский рассматривает способы, с помощью которых ИИ может кардинально изменить общество, не всегда в нашу пользу.

Он объясняет: «Мы столкнулись с почти гарантированным событием, которое может привести к экзистенциальной катастрофе. Неудивительно, что многие считают это самой важной проблемой, с которой когда-либо сталкивалось человечество. Результатом может быть процветание или вымирание, и судьба Вселенной висит на волоске».

Неуправляемый сверхинтеллект

Доктор Ямпольский провел обширный обзор научной литературы по ИИ и заявил, что не нашел доказательств того, что ИИ можно безопасно контролировать – и даже если будет какой-то частичный контроль, его будет недостаточно.

Он объясняет: «Почему так много исследователей полагают, что проблема управления ИИ разрешима? Насколько нам известно, этому нет доказательств. Прежде чем приступить к созданию управляемого ИИ, важно показать, что проблема разрешима. Это, в сочетании со статистикой, которая показывает, что развитие сверхинтеллекта ИИ является почти гарантированным событием, показывает, что мы должны поддерживать значительные усилия по обеспечению безопасности ИИ».

Он утверждает, что наша способность создавать интеллектуальное программное обеспечение намного превосходит нашу способность контролировать или даже проверять его. После всестороннего обзора литературы он предположил, что передовые интеллектуальные системы никогда не смогут быть полностью управляемыми и поэтому всегда будут представлять определенный уровень риска, независимо от пользы, которую они приносят. Он считает, что целью сообщества ИИ должна быть минимизация такого риска при максимизации потенциальной выгоды.

Каковы препятствия?

ИИ (и сверхинтеллект) отличаются от других программ своей способностью изучать новое поведение, корректировать свою работу и действовать полуавтономно в новых ситуациях.

Одна из проблем, связанных с обеспечением безопасности ИИ, заключается в том, что возможные решения и неудачи сверхразумного существа по мере того, как оно становится более способным, бесконечны, поэтому существует бесконечное количество проблем безопасности. Просто спрогнозировать проблемы невозможно и устранить их с помощью обновлений безопасности может быть недостаточно.

В то же время, объясняет Ямпольский, ИИ не может объяснить то, что он решил, и/или мы не можем понять данное объяснение, поскольку люди недостаточно умны, чтобы понять реализованные концепции. Если мы не понимаем решений ИИ и у нас есть только «черный ящик», мы не сможем понять проблему и снизить вероятность будущих аварий.

Например, системам искусственного интеллекта уже поручено принимать решения в таких сферах, как здравоохранение, инвестирование, трудоустройство, банковское дело и безопасность, и это лишь некоторые из них. Такие системы должны быть способны объяснить, как они пришли к своим решениям, в частности, чтобы продемонстрировать, что они свободны от предвзятости.

Ямпольский объясняет: «Если мы привыкнем принимать ответы ИИ без объяснения причин, по сути, рассматривая его как систему Oracle, мы не сможем сказать, начнет ли он давать неверные или манипулятивные ответы».

Контролируя неконтролируемое

По мере увеличения возможностей ИИ его автономность также увеличивается, но наш контроль над ним уменьшается, объясняет Ямпольский, а увеличение автономности является синонимом снижения безопасности.

Например, чтобы сверхинтеллект избежал получения неточных знаний и устранить любую предвзятость своих программистов, он мог бы игнорировать все такие знания и заново открыть/доказать все с нуля, но это также устранило бы любую прочеловеческую предвзятость.

«Человечество стоит перед выбором: станем ли мы подобны младенцам, о которых заботятся, но не контролируют, или мы отказываемся от полезного опекуна, но остаемся ответственными и свободными».

Он предполагает, что можно найти точку равновесия, в которой мы пожертвуем некоторыми возможностями в обмен на некоторый контроль за счет предоставления системе определенной степени автономии.

Согласование человеческих ценностей

Одним из предложений по контролю является создание машины, которая бы точно следовала человеческим приказам, но Ямпольский указывает на возможность противоречивых приказов, неправильного толкования или злонамеренного использования.

Если бы ИИ действовал скорее как советник, он мог бы обойти проблемы с неправильной интерпретацией прямых приказов и возможностью злонамеренных приказов, но автор утверждает, что для того, чтобы ИИ был полезным советником, он должен иметь свои собственные высшие ценности.

«Большинство исследователей безопасности ИИ ищут способ привести будущий сверхинтеллект в соответствие с ценностями человечества. ИИ, ориентированный на ценности, будет предвзятым по определению, предвзятость в пользу человека, хорошая или плохая, по-прежнему остается предвзятостью. Парадокс ИИ, ориентированного на ценности, заключается в том, что человек, явно приказывающий системе ИИ что-то сделать, может получить «нет», в то время как система пытается сделать то, что на самом деле хочет человек. Человечество либо защищают, либо уважают, но не то и другое», — объясняет он.

Минимизация риска

По его словам, чтобы свести к минимуму риск ИИ, он должен быть модифицируемым с возможностью «отменить», ограниченным, прозрачным и простым для понимания на человеческом языке.

Он предлагает разделить весь ИИ на контролируемый и неконтролируемый, ничего не следует снимать с повестки дня и ограничивать моратории и даже рассматривать возможность частичного запрета на определенные типы технологий ИИ.

Вместо того, чтобы разочаровываться, автор книги заключает: «Скорее, это повод для большего числа людей копать глубже и увеличивать усилия и финансирование исследований в области безопасности ИИ. Возможно, мы никогда не добьемся 100% безопасного ИИ, но мы можем сделать ИИ более безопасным пропорционально нашим усилиям, что намного лучше, чем ничего не делать. Нам нужно использовать эту возможность с умом».

Авторы другого исследования утверждают, что искусственный интеллект предсказывает успех антидепрессанта сертралина уже через неделю.

Запись Можно ли управлять искусственным интеллектом? впервые появилась Medical Insider.

Читайте на 123ru.net


Новости 24/7 DirectAdvert - доход для вашего сайта



Частные объявления в Вашем городе, в Вашем регионе и в России



Smi24.net — ежеминутные новости с ежедневным архивом. Только у нас — все главные новости дня без политической цензуры. "123 Новости" — абсолютно все точки зрения, трезвая аналитика, цивилизованные споры и обсуждения без взаимных обвинений и оскорблений. Помните, что не у всех точка зрения совпадает с Вашей. Уважайте мнение других, даже если Вы отстаиваете свой взгляд и свою позицию. Smi24.net — облегчённая версия старейшего обозревателя новостей 123ru.net. Мы не навязываем Вам своё видение, мы даём Вам срез событий дня без цензуры и без купюр. Новости, какие они есть —онлайн с поминутным архивом по всем городам и регионам России, Украины, Белоруссии и Абхазии. Smi24.net — живые новости в живом эфире! Быстрый поиск от Smi24.net — это не только возможность первым узнать, но и преимущество сообщить срочные новости мгновенно на любом языке мира и быть услышанным тут же. В любую минуту Вы можете добавить свою новость - здесь.




Новости от наших партнёров в Вашем городе

Ria.city

Беременная россиянка вылетела на машине в кювет и внезапно начала рожать

Почти 2,5 тысячи первоклассников пошли в школы в Серпухове в День знаний

Депутат Драпеко: авторы ремейка «Бриллиантовой руки» портят хорошее кино

Круговой: «Дивеева будет не хватать в сборной»

Музыкальные новости

Продвижение Песен и Музыки в Яндекс Музыка. Увеличение прослушиваний трека, плейлиста, лайки на трек. Кураторские Плейлисты.

Криптобиржа CROWDY объявила о проведении акции "Audi от CROWDY".

"Спартак" в меньшинстве вырвал победу в матче против "Рубина"

Какая река самая широкая в России, и где она находится 

Новости России

Названа самая опасная улица в Москве для водителей

ПКР поздравляет Зою Щурову с завоеванием серебряной медали на XVII Паралимпийских летних играх в Париже

Подозреваемых в тройном убийстве задержали под Вологдой

Почти 18 тысяч детей пошли в школы и детские сады в Солнечногорске

Экология в России и мире

Российский турист прилетел на Кубу и был отправлен назад в Россию по этой причине

37 российских туроператоров прекратили дальнейшую работу

Грибная охота: токсиколог Кутушов рассказал, как избежать отравления и собирать только безопасные грибы

Регистрация посетителей на выставку «Textile&Home-2024. Осень» в «Экспоцентре»

Спорт в России и мире

Теннисист Рублев вышел в четвертый круг Открытого чемпионата США

Джокович проиграл в третьем круге US Open и впервые с 2017 года завершит год без титула на турнире Большого шлема

Теннисистка Петрова: Медведев показал класс в третьем круге US Open

Шнайдер: чувствую, что США для меня — второй дом

Moscow.media

Мобильный принтер этикеток iMove T3Pro - лёгкий, производительный, компактный

Свыше 6,5 тысячи жителей Москвы и Московской области получили справки о статусе предпенсионера в клиентских службах регионального Отделения СФР и МФЦ

Филиал № 4 ОСФР по Москве и Московской области информирует: В Московском регионе 11,4 тысячи пап находятся в отпуске по уходу за ребенком

В России разработали технологию 3D-печати протезов пальцев











Топ новостей на этот час

Rss.plus






Россиянка лишилась пальца из-за обручального кольца

Сергей Романов представил обновлённую социальную сеть SocialAppe 2024

В Москве возбудили уголовное дело по факту контрабанды тонны прекурсоров для изготовления наркотиков

Почти 18 тысяч детей пошли в школы и детские сады в Солнечногорске