В центре внимания в последние месяцы оказался ИИ с открытым исходным кодом — разительный сдвиг по сравнению с прошлыми подходами к ПО. Дискуссии последовали после того, как генеральный директор Meta* Марк Цукерберг выпустил Llama 3.1*, подчеркнув, что ИИ с открытым исходным кодом — это будущее.
Это контрастирует с проприетарным подходом OpenAI с GPT-4, который взимает плату за корпоративный доступ и держит части своего кода в секрете. Али Гольшан из Gretel. ai подчеркнул, что тонко настроенные модели с открытым исходным кодом часто превосходят крупные проприетарные модели для конкретных задач. Дэйв Йен из Orange Collective поддержал это мнение, выступив за честную конкуренцию без подавления инноваций.
Однако ИИ с открытым исходным кодом не лишен рисков. Его доступность позволяет злоумышленникам использовать технологию не по назначению, обходя параметры безопасности.
Кроме того, некоторые модели с открытым исходным кодом не совсем прозрачны, держат в секрете данные обучения и вводят ограничительные лицензии.
Интересно, что предложенный в США законопроект о безопасности и инновациях в области ИИ призван установить стандарты для больших ИИ-разработок, включая тестирование безопасности перед внедрением и защиту баз данных. Законопроект столкнулся с противодействием со стороны сообщества разработчиков открытого кода.
*Meta признана в РФ экстремистской и запрещена