Добавить новость

Число жертв наводнения в Техасе возросло до 32 человек

Гонки по сим-рейсингу организуют в Летнем клубе «Москва» на Тверском бульваре

Мэр Москвы: Территория Морозовской больницы будет благоустроена

Семь птенцов лебедей-шипунов появились в двух парках столицы



News in English


Новости сегодня

Новости от TheMoneytizer

An AI system reaches human level on ‘general intelligence’ test. Here’s what it means.

A new artificial intelligence (AI) model has just achieved human-level results on a test designed to measure “general intelligence”.

On December 20, OpenAI’s o3 system scored 85% on the ARC-AGI benchmark, well above the previous AI best score of 55% and on par with the average human score. It also scored well on a very difficult mathematics test.

Creating artificial general intelligence, or AGI, is the stated goal of all the major AI research labs. At first glance, OpenAI appears to have at least made a significant step towards this goal.

While skepticism remains, many AI researchers and developers feel something just changed. For many, the prospect of AGI now seems more real, urgent and closer than anticipated. Are they right?

Generalization and intelligence

To understand what the o3 result means, you need to understand what the ARC-AGI test is all about. In technical terms, it’s a test of an AI system’s “sample efficiency” in adapting to something new — how many examples of a novel situation the system needs to see to figure out how it works.

An AI system like ChatGPT (GPT-4) is not very sample efficient. It was “trained” on millions of examples of human text, constructing probabilistic “rules” about which combinations of words are most likely.

The result is pretty good at common tasks. It is bad at uncommon tasks, because it has less data (fewer samples) about those tasks.

Until AI systems can learn from small numbers of examples and adapt with more sample efficiency, they will only be used for very repetitive jobs and ones where the occasional failure is tolerable.

The ability to accurately solve previously unknown or novel problems from limited samples of data is known as the capacity to generalize. It is widely considered a necessary, even fundamental, element of intelligence.

Grids and patterns

The ARC-AGI benchmark tests for sample efficient adaptation using little grid square problems like the one below. The AI needs to figure out the pattern that turns the grid on the left into the grid on the right.

An example task from the ARC-AGI benchmark test. ARC Prize

Each question gives three examples to learn from. The AI system then needs to figure out the rules that “generalize” from the three examples to the fourth.

These are a lot like the IQ tests sometimes you might remember from school.

Weak rules and adaptation

We don’t know exactly how OpenAI has done it, but the results suggest the o3 model is highly adaptable. From just a few examples, it finds rules that can be generalized.

To figure out a pattern, we shouldn’t make any unnecessary assumptions, or be more specific than we really have to be. In theory, if you can identify the “weakest” rules that do what you want, then you have maximized your ability to adapt to new situations.

What do we mean by the weakest rules? The technical definition is complicated, but weaker rules are usually ones that can be described in simpler statements.

In the example above, a plain English expression of the rule might be something like: “Any shape with a protruding line will move to the end of that line and ‘cover up’ any other shapes it overlaps with.”

Searching chains of thought?

While we don’t know how OpenAI achieved this result just yet, it seems unlikely they deliberately optimized the o3 system to find weak rules. However, to succeed at the ARC-AGI tasks it must be finding them.

We do know that OpenAI started with a general-purpose version of the o3 model (which differs from most other models, because it can spend more time “thinking” about difficult questions) and then trained it specifically for the ARC-AGI test.

French AI researcher Francois Chollet, who designed the benchmark, believes o3 searches through different “chains of thought” describing steps to solve the task. It would then choose the “best” according to some loosely defined rule, or “heuristic”.

This would be “not dissimilar” to how Google’s AlphaGo system searched through different possible sequences of moves to beat the world Go champion.

You can think of these chains of thought like programs that fit the examples. Of course, if it is like the Go-playing AI, then it needs a heuristic, or loose rule, to decide which program is best.

There could be thousands of different seemingly equally valid programs generated. That heuristic could be “choose the weakest” or “choose the simplest”.

However, if it is like AlphaGo then they simply had an AI create a heuristic. This was the process for AlphaGo. Google trained a model to rate different sequences of moves as better or worse than others.

What we still don’t know

The question then is, is this really closer to AGI? If that is how o3 works, then the underlying model might not be much better than previous models.

The concepts the model learns from language might not be any more suitable for generalization than before. Instead, we may just be seeing a more generalizable “chain of thought” found through the extra steps of training a heuristic specialized to this test. The proof, as always, will be in the pudding.

Almost everything about o3 remains unknown. OpenAI has limited disclosure to a few media presentations and early testing to a handful of researchers, laboratories and AI safety institutions.

Truly understanding the potential of o3 will require extensive work, including evaluations, an understanding of the distribution of its capacities, how often it fails and how often it succeeds.

When o3 is finally released, we’ll have a much better idea of whether it is approximately as adaptable as an average human.

If so, it could have a huge, revolutionary, economic impact, ushering in a new era of self-improving accelerated intelligence. We will require new benchmarks for AGI itself and serious consideration of how it ought to be governed.

If not, then this will still be an impressive result. However, everyday life will remain much the same. – Rappler.com

This article originally appeared on The Conversation.

Michael Timothy Bennett, PhD Student, School of Computing, Australian National University

Elija Perrier, Research Fellow, Stanford Center for Responsible Quantum Technology, Stanford University

Must Read

How AI was used in 2024 elections: Voice and chatbot clones, drafting speeches, emails

Читайте на 123ru.net


Новости 24/7 DirectAdvert - доход для вашего сайта



Частные объявления в Вашем городе, в Вашем регионе и в России



Smi24.net — ежеминутные новости с ежедневным архивом. Только у нас — все главные новости дня без политической цензуры. "123 Новости" — абсолютно все точки зрения, трезвая аналитика, цивилизованные споры и обсуждения без взаимных обвинений и оскорблений. Помните, что не у всех точка зрения совпадает с Вашей. Уважайте мнение других, даже если Вы отстаиваете свой взгляд и свою позицию. Smi24.net — облегчённая версия старейшего обозревателя новостей 123ru.net. Мы не навязываем Вам своё видение, мы даём Вам срез событий дня без цензуры и без купюр. Новости, какие они есть —онлайн с поминутным архивом по всем городам и регионам России, Украины, Белоруссии и Абхазии. Smi24.net — живые новости в живом эфире! Быстрый поиск от Smi24.net — это не только возможность первым узнать, но и преимущество сообщить срочные новости мгновенно на любом языке мира и быть услышанным тут же. В любую минуту Вы можете добавить свою новость - здесь.




Новости от наших партнёров в Вашем городе

Ria.city

XXI Международный шахматный фестиваль «Псков-2025» собрал почти 200 спортсменов

Двое бегунов из Москвы и Петербурга погибли во время трейла в опасных Хибинах

Путин: у России длительное время были очень добрые отношения с США

Флейтист и марафонец. В забеге в Хибинах погиб музыкант из Москвы

Музыкальные новости

"Динамо" со счетом 3:1 обыграло "Партизан" в матче "Братского кубка"

Пассажиры 62 рейсов не вылетят вовремя из Пулково в субботу

Футболист Смолов устроил драку в московской «Кофемании»

Медведев рассказал, зачем генсеку НАТО нужно учить русский язык: Пригодится в сибирском лагере

Новости России

Компания «Гранд Сервис Экспресс» на фоне задержки рейсов в столичных аэропортах включила дополнительные купейные вагоны в оба состава поезда №53/54 «Гранд Экспресс» сообщением Санкт-Петербург – Москва и Москва –...

Трагедия на спортфесте "Хибины": какое наказание грозит организаторам трейла в Приморье

Флейтист и марафонец. В забеге в Хибинах погиб музыкант из Москвы

XXI Международный шахматный фестиваль «Псков-2025» собрал почти 200 спортсменов

Экология в России и мире

Илана Юрьева рассказала о конфликте в «Уральских пельменях» из-за Михалковой: «Юле это не понравилось»

Сотрудники сервисного локомотивного депо Иваново Северного филиала компании «ЛокоТех-Сервис» представили Ивановский железнодорожный узел на играх Роспрофжел «Мы вместе».

Понимание важности массажа для лица

Как монетизируется «ярмарка тщеславия»

Спорт в России и мире

Арина Соболенко вышла в 1/4 финала Уимблдона

Алькарас: Матч с Рублевым станет серьезным вызовом

Теннисист Хачанов стал первым четвертьфиналистом Уимблдона

Теннисистка Павлюченкова заявили, что судьи на Уимблдоне украли у нее гейм

Moscow.media

YADRO вложила в развитие отечественных IT-продуктов более 60 млрд руб.

Какие дороги отремонтируют и построят в России в 2025 году

Знай наших: на «единичке» — через полстраны!

Как бизнесу найти надёжных рабочих за 1 день: опыт сервиса rabota360











Топ новостей на этот час

Rss.plus






Жара наступает: "оранжевый" уровень погодной опасности объявили в Москве

Пассажирка Porsche разбилась насмерть в ДТП с КамАЗом на Ставрополье

Евгения Гуцул возглавит список блока "Победа" на фоне обвинений в Молдавии

Флейтист и марафонец. В забеге в Хибинах погиб музыкант из Москвы