Добавить новость

«Спартак» обратился в ЭСК РФС по двум эпизодам матча против «Ростова»

Врач Кондрахин: постельное белье нужно менять не реже одного раза в две недели

Вандалы закидали бутылками посольство Швеции в Москве и попали на видео

Путин: Ситуация с курсом рубля под контролем, поводов для паники нет

News in English


Новости сегодня

Новости от TheMoneytizer

AI leaders are starting to rethink the best way to advance AI

  • AI leaders are rethinking data-heavy training for large language models.
  • Traditional models scale linearly with data, but this approach may hit a dead end.
  • Smaller, more efficient models and new training methods are gaining industry support.

For years, tech companies like OpenAI, Meta, and Google have focused on amassing tons of data, assuming that more training material would lead to smarter, more powerful models.

Now, AI leaders are rethinking the conventional wisdom about how to train large language models.

The focus on training data arises from research showing that transformers, the neural networks behind large language models, have a one-to-one relationship with the amount of data they're given. Transformer models "scale quite linearly with the amount of data and compute they're given," Alex Voica, a consultant at the Mohamed bin Zayed University of Artificial Intelligence, previously told Business Insider.

However, executives are starting to worry that this approach can only go so far, and they're exploring alternatives for advancing the technology.

The money going into AI has largely hung on the idea that this scaling law "would hold," Scale AI CEO Alexandr Wang said at the Cerebral Valley conference this week, tech newsletter Command Line reported. It's now "the biggest question in the industry."

Some executives say the problem with the approach is that it's a little mindless. "It's definitely true that if you throw more compute at the model, if you make the model bigger, it'll get better," Aidan Gomez, the CEO of Cohere, said on the 20VC podcast. "It's kind of like it's the most trustworthy way to improve models. It's also the dumbest."

Gomez advocates smaller, more efficient models, which are gaining industry support for being cost-effective.

Others worry this approach won't reach artificial general intelligence — a theoretical form of AI that matches or surpasses human intelligence — even though many of the world's largest AI companies are banking on it.

Large language models are trained simply to "predict the next token, given the previous set of tokens," Richard Socher, a former Salesforce executive and CEO of AI-powered search engine You.com, told Business Insider. The more effective way to train them is to "force" these models to translate questions into computer code and generate an answer based on the output of that code, he said. This will reduce hallucinations in quantitative questions and enhance their abilities.

Not all industry leaders are sold that AI has hit a scaling wall, however.

"Despite what other people think, we're not at diminishing marginal returns on scale-up," Microsoft chief technology officer Kevin Scott said in July in an interview with Sequoia Capital's Training Data podcast.

Companies like OpenAI are also seeking to improve on existing LLMs.

OpenAI's o1, released in September, still relies on the token prediction mechanism Socher refers to. Still, the model is specialized to better handle quantitative questions, including areas like coding and mathematics — compared to ChatGPT, which is considered a more general-purpose model.

Part of the difference between o1 and ChatGPT is that o1 spends more time on inference or "thinking" before it answers a question.

"To summarize, if we were to anthropomorphize, gpt-4 is like your super know-it-all friend who when you ask them a question starts talking stream-of-consciousness, forcing you to sift through what they're saying for the gems," Waleed Kadous, a former engineer lead at Uber and former Google principal software engineer, wrote in a blog post. "o1 is more like the friend who listens carefully to what you have to say, scratches their chin for a few moments, and then shares a couple of sentences that hit the nail on the head."

One of o1's trade-offs, however, is that it requires much more computational power, making it slower and costlier, according to Artificial Analysis, an independent AI benchmarking website.

Read the original article on Business Insider

Читайте на 123ru.net


Новости 24/7 DirectAdvert - доход для вашего сайта



Частные объявления в Вашем городе, в Вашем регионе и в России



Smi24.net — ежеминутные новости с ежедневным архивом. Только у нас — все главные новости дня без политической цензуры. "123 Новости" — абсолютно все точки зрения, трезвая аналитика, цивилизованные споры и обсуждения без взаимных обвинений и оскорблений. Помните, что не у всех точка зрения совпадает с Вашей. Уважайте мнение других, даже если Вы отстаиваете свой взгляд и свою позицию. Smi24.net — облегчённая версия старейшего обозревателя новостей 123ru.net. Мы не навязываем Вам своё видение, мы даём Вам срез событий дня без цензуры и без купюр. Новости, какие они есть —онлайн с поминутным архивом по всем городам и регионам России, Украины, Белоруссии и Абхазии. Smi24.net — живые новости в живом эфире! Быстрый поиск от Smi24.net — это не только возможность первым узнать, но и преимущество сообщить срочные новости мгновенно на любом языке мира и быть услышанным тут же. В любую минуту Вы можете добавить свою новость - здесь.




Новости от наших партнёров в Вашем городе

Ria.city

Объем промышленного экспорта Москвы в страны Северной Африки вырос на 31% за восемь месяцев 2024 года

Депутат Люберец провел встречу с тренером по боксу высшей категории

Путин назвал хорошими итоги своего визита в Казахстан

Размер кредитов по семейной ипотеке предлагают увеличить в Госдуме

Музыкальные новости

Филиал № 4 ОСФР по Москве и Московской области информирует: В Москве и Московской области 650 тысяч пенсионеров старше 80 лет получают пенсию в повышенном размере

Техник-паспортист СЛД «Сольвычегодск» Марина Созинова отмечена Благодарственным письмом от Совета женщин Сольвычегодского региона.

Калининградский "Локомотив": десятая победа и второе место в лиге

В Подмосковье офицер Росгвардии оказал помощь в эвакуации  пострадавших в результате ДТП

Новости России

Продвижение Музыки. Продвижение Песен. Раскрутка Песни.

Специалист Лавровский прокомментировал ситуацию на валютном рынке

Более 200 самозанятых Подмосковья приняли участие в ежегодном бизнес-форуме

«Спартак» обратился в ЭСК РФС по двум эпизодам матча против «Ростова»

Экология в России и мире

Николай Семёнов – известный российский спортсмен, тренер, блогер и предприниматель.

Подкаст "Женское дело. Лаборатория успеха". В гостях Евгения Гурова

Рустэм Султанов представляет альбом «На осколках декабря»: smooth jazz в преддверии зимы

Сеть клиник «Будь Здоров» запустила медицинского GPT-ассистента

Спорт в России и мире

Гарсия возвращается в теннис после панических атак: «Больше не хочу, чтобы победа на «Большом шлеме» или топ-5 были моей целью»

Андреа Петкович заявила, что Синнера не включили в номинанты премии ATP из-за допинг-дела

Елене Рыбакиной "отдали" вторую победу на Уимблдоне

Кубок Дэвиса. Финал. Берреттини играет с ван де Зандшульпом, Синнер встретится с Грикспором

Moscow.media

Bloody - участник и технический партнер Red Expo-2024

В Москве возбуждено уголовное дело в отношении жителя Подмосковья по факту покушения на убийство совершенного в вагоне поезда «Санкт-Петербург – Новороссийск»

Филиал № 4 ОСФР по Москве и Московской области информирует: Отделение СФР по Москве и Московской области оплатило свыше 243 тысяч дополнительных выходных дней по уходу за детьми с инвалидностью

Новодевичий монастырь снятый на телефон Xiaomi Redmi 12.











Топ новостей на этот час

Rss.plus






Депутат Люберец провел встречу с тренером по боксу высшей категории

Путин: Ситуация с курсом рубля под контролем, поводов для паники нет

Продвижение Музыки. Продвижение Песен. Раскрутка Песни.

Врач Кондрахин: постельное белье нужно менять не реже одного раза в две недели