Несмотря на опасения, связанные с распространением технологии "дипфейков", главной проблемой в работе общего искусственного интеллекта остается распознавание его ошибок, пишет "Телеспутник". Последствиями некритичного подхода к ИИ может стать разрушение как экосистемы распространения информации в сети, так и самого интернета.
<strong>Несмотря на опасения <a href="https://rtvi.com/news/dlya-rkn-razrabatyvayut-nejroset-vyyavlyayushhuyu-lozh-v-videorolikah-s-vystupleniyami-politikov/">российских</a> и <a href="https://rtvi.com/news/deep-microsoft-fake/">зарубежных</a> экспертов, связанные с возможностями общего искусственного интеллекта (ОИИ) по созданию дипфейков, более серьезной угрозой со стороны нейросетей могут оказаться ошибки, которые допускает сам искусственный интеллект, пишет <a href="https://telesputnik.ru/materials/tech/mneniya/glavnyy-dipfeyk-sovremennosti">«Телеспутник»</a>.</strong>
Главной проблемой в применении чат-ботов можно назвать большой процент неверных ответов, которые могут выглядеть логичными. Проблемы с распознаванием ошибок ИИ, в свою очередь, могут вести к распространению дезинформации и фейков. Ненадежность работы ИИ демонстрируют исследования рынка обуви для активного отдыха от виртуального ассистента AutoGPT.
Несмотря на высокую скорость обработки информации, сравнивая продукцию таких брендов как Columbia, Salomon и Merrell, AutoGPT предоставляет не до конца достоверную общую информацию, практически не имеющую практической ценности.
В частности, анализируя обувь бренда Columbia, виртуальный ассистент указывает, что водонепроницаемая обувь выполнена в разных стилях, стоимость продукции конкурентоспособна на рынке и т.д. В то же время, в исследовании AutoGPT не указываются такие важные характеристики как отличие между женскими и мужскими моделями, эргономика и использованные в производстве материалы. <blockquote>Причина, по которой чат-бот предоставляет пользователям односторонний и ограниченный анализ, заключается в том, что AutoGPT ориентируется на степень присутствия брендов в интернете. В результате, акцент смещается в сторону тех, кто лучше представлен в сети, что приводит к ложной интерпретации фактов. Из-за этого итоговый текст исследования нельзя назвать экспертизой, так как он в большой степени представляет собой догадки.</blockquote> В таких случаях ответы опытного продавца-консультанта могут кардинально отличаться от советов AutoGPT, не основанных на личном опыте и знаниях, что позволит избежать самых неожиданных негативных последствий, вплоть до травм.
В 2023 году Аврам Пилч, главный редактор издания Tom’s Hardware о компьютерных технологиях, также <a href="https://www.tomshardware.com/news/google-sge-break-internet">указал</a> на другую проблему в работе ИИ. По его словам, новая поисковая система Google, использующая алгоритмы нейросетей, была разработана на «движке плагиата» (plagiarism engine).
Это означает, что новостные сводки, подготовленные ИИ, в большом количестве случаев представляют собой дословную копию материалов с анализируемых сайтов. В результате, размещение такого контента со ссылкой на источники приводит к снижению их трафика. По словам Пилча, такая модель работы потенциально несет в себе непредсказуемые риски. <blockquote>Возможными последствиями подобных ошибок в глобальном масштабе может стать исчезновение существующей экосистемы распространения информации или же деформировать ее настолько, что под угрозой окажется само существования интернета.</blockquote> Подобные опасения распространяются не только на зарубежные, но и на российские нейросети.
Выступая на форуме Digital Almaty 2024 в Казахстане, премьер-министр России Михаил Мишустин заявил, что нейросеть «Сбера» GigaChat отличается от западного аналога ChatGPT «разным пониманием, что «хорошо», а что «плохо», пишут <a href="https://iz.ru/1643956/2024-02-02/mishustin-obiasnil-razlichiia-rossiiskoi-gigachat-i-zapadnoi-chatgpt">"Известия"</a>. Однако одинаковые базовые принципы работы больших языковых моделей также обуславливают наличие одних и тех же системных проблем, ведущих к ошибкам.
В 2019 году канадский профессор компьютерных технологий Ричард С. Саттон опубликовал эссе <a href="http://www.incompleteideas.net/IncIdeas/BitterLesson.html">«Горький урок»</a>, посвященное проблемам в работе с ИИ. В частности, он обратил внимание на то, что в результате десятков лет работы эксперты пришли к выводу, что для совершенствования ИИ необходимо отказаться от попыток создать настоящий «интеллект». <blockquote>Саттон подчеркнул, что многие исследователи пытались «встроить» свои знания в ИИ. Это давало позитивный эффект в краткосрочной перспективе, однако тормозило дальнейший процесс работы, так как со временем этот подход упирался в потолок. В связи с этим, Саттон призвал использовать нейросети в работы в первую очередь для повышения вычислительных мощностей и объема анализируемых данных.</blockquote> В этом свете, распространение ОИИ выглядит не как прорыв, а как приход новой эпохи борьбы за данные, за право создавать и получать информацию, а также за перераспределение спроса и предложения на этом рынке.
Так, все большую популярность завоевывает идея о пользе информационного «мусора», созданного нейросетями. В частности, позитивным эффектом может стать развитие ценных человеческих ресурсов, которые за определенную плату будут помогать пользователям посещать качественные ресурсы.
Одним из решений потенциальных проблем может стать диверсификация машинного интеллекта. Развитие нейросетевых систем контроля, мониторинга, автопилотирования и распознавания может избежать жесткого ограничения ОИИ, если акцент будет смещен на масштабное внедрение предсказуемых и комфортных в использовании интеллектуальных машинных систем.