Сухир Баладжи, бывший сотрудник OpenAi собирал и организовывал огромные объемы интернет-данных, которые использовались для обучения чат-бота ChatGPT. Компания, занимающаяся разработкой искусственного интеллекта, принадлежит Microsoft.
Он разоблачил компанию по разработке ИИ, столкнувшуюся с волной судебных исков из-за своей бизнес-модели, заявив, что компания нарушила закон об авторских правах. Он был ключевым лицом и ожидалось, что имеющаяся у него информация сыграет ключевую роль в судебных исках против компании из Сан-Франциско.
Его публичный выпуск в конце 2022 года спровоцировал целый поток исков против OpenAI со стороны авторов, программистов и журналистов, у которых компания незаконно крала их защищенные авторским правом материалы, чтобы обучить свою программу и поднять ее стоимость более чем до 150 миллиардов долларов.
Mercury News и семь родственных новостных агентств, включая New York Times, были среди целого ряда СМИ, которые подали в суд на OpenAI в прошлом году. Баладжи утверждал, что OpenAI наносит вред предприятиям и предпринимателям, чьи данные используются для обучения ChatGPT.
"Если вы верите в то, во что верю я, Вам просто придется покинуть компанию", — заявил он изданию, добавив, что "это неустойчивая модель для экосистемы интернета в целом".
Баладжи верил в потенциальные преимущества, которые ИИ может предложить обществу, включая его способность лечить болезни и останавливать старение: "Я думал, что мы могли бы изобрести какого-то ученого, который мог бы помочь решить их".
Но его перспективы начали портиться в 2022 году, через два года после того, как он присоединился к OpenAI в качестве исследователя. Он особенно беспокоился о своем задании по сбору данных из интернета для программы GPT-4 компании, которая анализировала текст почти со всего интернета для обучения своей программы ИИ.
По его словам, эта практика противоречит законам страны о "справедливом использовании", регулирующим, как люди могут использовать ранее опубликованные работы. В конце октября он опубликовал на своем личном сайте анализ, в котором обосновал эту точку зрения.
В письме от 18 ноября, поданном в федеральный суд, адвокаты The New York Times назвали Баладжи человеком, у которого были "уникальные и релевантные документы", которые могли бы поддержать их дело против OpenAI. Он был среди по меньшей мере 12 человек — многие из которых были бывшими или нынешними сотрудниками OpenAI — которых газета назвала в судебных документах как имеющих материалы, полезные для их дела, до дачи показаний.
Ни один из известных факторов "не свидетельствует в пользу того, что ChatGPT является добросовестным использованием своих обучающих данных", — написал Баладжи, "При этом ни один из приведенных здесь аргументов не является принципиально специфичным для ChatGPT, и аналогичные аргументы можно было бы привести для многих генеративных продуктов ИИ в самых разных областях"
Если кратко, то он доказал, что ИИ, включая ChatGPT и некоторые прочие основаны на украденных данных, то есть этофактически криминальный продукт, достигший стоимости, благодаря краже данных у тех, кто не давал разрешения, сотен миллиардов долларов.
Было бы удивительно, если бы этот парень после такого остался в живых.
И вот, на этой неделе власти подтвердили, что 26-летний Сухир Баладжи был найден мертвым в своей квартире на Бьюкенен-стрит 26 ноября. Бюро судебно-медицинской экспертизы определило, что смерть наступила, как это обычно бывает в таких случаях, в результате "самоубийства", и представители полиции на этой неделе заявили, что "в настоящее время нет никаких доказательств умышленного убийства".
Смерть Баладжи наступила через три месяца после того, как он публично обвинил OpenAI в нарушении закона США об авторских правах при разработке ChatGPT — программы генеративного искусственного интеллекта, которая стала сенсацией в сфере получения прибыли и которой пользуются сотни миллионов людей по всему миру.
"Разоблачитель" и "самоубийство", когда речь о миллиардах, всегда встречаются в одном предложении. За жизни оставшихся в живых 11 свидетелей я бы тоже не дал и ломанного гроша.
Сучир Баладжи, 23.10.24: "Когда генеративный ИИ может считаться добросовестным использованием?"
Его последний пост:
"Недавно я участвовал в репортаже NYT о добросовестном использовании и генеративном ИИ, и о том, почему я скептически отношусь к тому, что "добросовестное использование" может быть надежной защитой для многих продуктов генеративногоИИ. Я также написал пост в блоге о мельчайших деталях добросовестного использования и о том, почему я в это верю.
Чтобы дать некоторый контекст: я проработал в OpenAI почти 4 года и последние 1,5 года работал над ChatGPT. Поначалу я мало что знал об авторском праве, добросовестном использовании и т.д., Но после просмотра всех судебных исков мне стало любопытно. Подан иск против GenAl companies. Когда я попытался лучше разобраться в этом вопросе, то в конце концов пришел к выводу, что добросовестное использование кажется довольно неправдоподобной защитой для многих продуктов генеративного ИИИ по той простой причине, что они могут создавать заменители, конкурирующие с данными, на которых они обучены. Я изложил более подробные причины, по которым я в это верю, в своем посте. Очевидно, что я не юрист, но я все равно считаю, что даже для людей, не являющихся юристами, важно понимать закон - как его букву, так и то, почему он вообще существует.
При этом я не хочу, чтобы это воспринималось как критика ChatGPT или OpenAL как таковых, потому что добросовестное использование и генеративный подход - это гораздо более широкая проблема, чем какой-либо один продукт или компания. Я настоятельно рекомендую исследователям ИИ узнать больше об авторском праве - это действительно важная тема, и прецеденты, на которые часто ссылаются, например, Google Books, на самом деле не так благоприятны, как может показаться.
Не стесняйтесь обращаться, если хотите поболтать о добросовестном использовании, ML или авторском праве - я думаю, это очень интересное пересечение. Мой адрес электронной почты указан на моем личном веб-сайте.". 13:54 • 23 октября 2024 год, 141,7 тыс. просмотров.
Увы, обратиться к парню более не удастся. Он был слишком честен, открыт и наивен. За это его и убрали.