OpenAI и Anthropic подписали беспрецедентные соглашения, предоставляющие правительству США ранний доступ к их новейшим моделям ИИ до их публичного выпуска. Эта инициатива, объявленная Национальным институтом стандартов и технологий (NIST) США, направлена на «повышение безопасности и снижение рисков», а не для «большего контроля», как вам могло показаться.
В рамках этих соглашений Институт безопасности искусственного интеллекта США будет рассматривать и тестировать основные новые модели ИИ обеих компаний, оценивая потенциальные риски и предлагая усовершенствования. Такой проактивный подход гарантирует, что «оценка безопасности не будет основываться только на внутренних оценках компаний, а будет дополнена результатами правительственных и независимых исследований».
Критики утверждают, что это может затормозить инновации, но что они понимают, не правда ли?