В издании Computerworld подчеркивается , что новые модели работают хуже своих предшественников, вызывая разочарование пользователей. Автор статьи журналист Стивен Вон-Николс отмечает, что ответы часто оказываются неверными и хаотичными, что затрудняет использование искусственного интеллекта.
«Если вы работаете, скажем, на уровне отчета средней школы, ответы искусственного интеллекта вам подойдут. Но если вы глубоко копаетесь в предмете, который знаете, это другая история», – пишет журналист.
Анализируя причины такого ухудшения, Вон-Николс предполагает, что искусственный интеллект учится не только на данных из соцсетей, но и информации, созданной самими моделями. Это может привести к явлению «коллапса модели», когда качество снижается из-за использования сгенерированных данных. Исследования показывают, что применение контента без разбора приводит к необратимым дефектам.
С учетом того, что интернет быстро заполняется искусственно генерируемым контентом, проблема может усугубиться уже к 2026 году. Эксперты предупреждают о необходимости ценить уникальную работу людей, однако изменения в этой области могут произойти не скоро.
]]>