«Предварительное обучение, каким мы его знаем, несомненно, закончится», — заявил Суцкевер на сцене. Речь идет о первой фазе разработки модели ИИ, когда большая языковая модель изучает закономерности на основе огромных объемов немаркированных данных — обычно текстов из интернета, книг и других источников.
Во время выступления Суцкевер сказал, что хотя существующие данные все еще могут продвинуть разработку ИИ, отрасли нужны новые источники информации для обучения. По его мнению, эта тенденция неизбежно приведет к пересмотру привычных подходов к тренировке ИИ. Он сравнил ситуацию с ископаемым топливом: так же, как нефть — конечный ресурс, интернет содержит ограниченное количество контента, созданного человеком. «Мы достигли пиковых данных, и больше их не будет», — заявил исследователь.
Суцкевер предсказал, что модели следующего поколения будут обладать «настоящей агентностью». Этот термин стал популярным в сфере искусственного интеллекта. Суцкевер не дал ему четкого определения, но под агентами обычно понимают автономные ИИ-системы, способные выполнять задачи, принимать решения и взаимодействовать с программами самостоятельно. Помимо этого, исследователь подчеркнул, что будущие системы будут наделены способностью к рассуждению.
В отличие от нынешнего ИИ, который опирается на сопоставление шаблонов из ранее увиденных данных, будущие алгоритмы смогут решать задачи пошагово, что будет больше напоминать процесс мышления.
Чем больше ИИ рассуждает, тем менее предсказуемым становится его поведение, считает Суцкевер. Ученый сравнил непредсказуемость «действительно рассуждающих систем» с тем, как продвинутые ИИ, играющие в шахматы, непредсказуемы для сильнейших гроссмейстеров. «Они будут понимать вещи на основе ограниченных данных и не будут путаться», — сказал он.
Сравнивая развитие систем искусственного интеллекта с эволюцией живых организмов, Суцкевер отметил интересную параллель. Исследования показывают, что соотношение массы мозга и тела у большинства млекопитающих подчиняется определенным закономерностям. Однако у гоминид, предков человека, наблюдается значительное отклонение от этой общей тенденции.
Исследователь предположил, что так же, как эволюция нашла новый путь развития мозга у гоминид, развитие ИИ может выйти за рамки существующих шаблонов и найти новые, более действенные способы масштабирования.
После выступления слушатель спросил, как создать механизмы, которые предоставят ИИ «свободы, подобные человеческим». Суцкевер отметил, что это важный вопрос, но решение требует «жёсткой государственной структуры». Когда в зале предложили использовать криптовалюту, он ответил: «Я не эксперт, но не исключаю такой возможности». По его словам, если ИИ захочет сосуществовать с людьми и иметь права, это может быть приемлемым исходом, хотя будущее остается непредсказуемым. После ухода из OpenAI Суцкевер открыл собственную лабораторию ИИ под названием Safe Superintelligence. Стартап уже https://hightech.plus/2024/09/05/ii-startap-ili-suckevera-pr... $1 млрд.