Добавить новость

Более 40 дорог к туристическим местам отремонтировали в Подмосковье в этом году

В Ступине завершен снос аварийного жилого дома

Подмосковная спортсменка взяла золото на соревнованиях по фигурному катанию

Шоколадная фабрика СЧАСТЬЕ выпустила коллекционный набор к юбилею Малого драматического театра — театра Европы



News in English


Новости сегодня

Новости от TheMoneytizer

Finally, a realistic roadmap for getting AI companies in check

Vox 
CFOTO/Future Publishing via Getty Images

It’s time for AI regulators to move fast and break things.

New AI systems are coming at us so fast and furious that it might seem like there’s nothing we can do to stop them long enough to make sure they’re safe.

But that’s not true. There are concrete things regulators can do right now to prevent tech companies from releasing risky systems.

In a new report, the AI Now Institute — a research center studying the social implications of artificial intelligence — offers a roadmap that specifies exactly which steps policymakers can take. It’s refreshingly pragmatic and actionable, thanks to the government experience of authors Amba Kak and Sarah Myers West. Both former advisers to Federal Trade Commission chair Lina Khan, they focus on what regulators can realistically do today.

The big argument is that if we want to curb AI harms, we need to curb the concentration of power in Big Tech.

To build state-of-the-art AI systems, you need resources — a gargantuan trove of data, a huge amount of computing power — and only a few companies currently have those resources. These companies amass millions that they use to lobby government; they also become “too big to fail,” with even governments growing dependent on them for services.

So we get a situation where a few companies get to set the terms for everyone: They can build hugely consequential AI systems and then release them how and when they want, with very little accountability.

“A handful of private actors have accrued power and resources that rival nation-states while developing and evangelizing artificial intelligence as critical social infrastructure,” the report notes.

What the authors are highlighting is the hidden-in-plain-sight absurdity of how much power we’ve unwittingly ceded to a few actors that are not democratically elected.

When you think about the risks of systems like ChatGPT and GPT-4-powered Bing — like the risk of spreading disinformation that can fracture democratic society — it’s wild that companies like OpenAI and Microsoft have been able to release these systems at their own discretion. OpenAI’s mission, for example, is “to ensure that artificial general intelligence benefits all of humanity” — but so far, the company, not the public, has gotten to define what benefiting all of humanity entails.

The report says it’s past time to claw back power from the companies, and it recommends some strategies for doing just that. Let’s break them down.

Concrete strategies for gaining control of AI

One of the absurdities of the current situation is that when AI systems produce harm, it falls to researchers, investigative journalists, and the public to document the harms and push for change. But that means society is always carrying a heavy burden and scrambling to play catch-up after the fact.

So the report’s top recommendation is to create policies that place the burden on the companies themselves to demonstrate that they’re not doing harm. Just as a drugmaker has to prove to the FDA that a new medication is safe enough to go to market, tech companies should have to prove that their AI systems are safe before they’re released.

That would be a meaningful improvement over existing efforts to better the AI landscape, like the burgeoning industry in “audits,” where third-party evaluators peer under the hood to get transparency into how an algorithmic system works and root out bias or safety issues. It’s a good step, but the report says it shouldn’t be the primary policy response, because it tricks us into thinking of “bias” as a purely technical problem with a purely technical solution.

But bias is also about how AI is used in the real world. Take facial recognition. “It is not social progress to make black people equally visible to software that will inevitably be further weaponized against us,” Zoé Samudzi noted in 2019.

Here, again, the report reminds us of something that should be obvious but so often gets overlooked. Instead of taking an AI tool as a given and asking how we can make it fairer, we should start with the question: Should this AI tool even exist? In some cases, the answer will be no, and then the right response is not an audit, but a moratorium or a ban. For example, pseudoscience-based “emotion recognition” or “algorithmic gaydar” tech should not deployed, period.

The tech industry is nimble, often switching tactics to suit its goals. Sometimes it goes from resisting regulation to claiming to support it, as we saw when it faced a chorus calling for bans on facial recognition. Companies like Microsoft supported soft moves that served to preempt bolder reform; they prescribed auditing the tech, a much weaker stance than banning police use of it altogether.

So, the report says, regulators need to keep their eyes peeled for moves like this and be ready to pivot if their approaches get co-opted or hollowed out by industry.

Regulators also need to get creative, using different tools in the policy toolbox to gain control of AI, even if those tools aren’t usually used together.

When people talk about “AI policy,” they sometimes think of it as distinct from other policy areas like data privacy. But “AI” is just a composite of data and algorithms and computational power. So data policy is AI policy.

Once we remember that, we can consider approaches that limit data collection, not only to protect consumer privacy, but also as mechanisms to mitigate some of the riskiest AI applications. Limit the supply of data and you’re limiting what can be built.

Similarly, we might not be used to talking about AI in the same breath as competition law or antitrust. But we’ve already got antitrust laws on the books and the Biden administration has signaled that it’s willing to boldly and imaginatively apply those laws to target the concentration of power among AI companies.

Ultimately, the biggest hidden-in-plain-sight truth that the report reveals is that humans are in control of which technologies we deploy and when. Recent years have seen us place moratoria and bans on facial recognition tech; in the past, we’ve also organized a moratorium and created bright-line prohibitions in the field of human genetics. Technological inevitability is a myth.

“There is nothing about artificial intelligence that is inevitable,” the report says. “Only once we stop seeing AI as synonymous with progress can we establish popular control over the trajectory of these technologies.”

Читайте на 123ru.net


Новости 24/7 DirectAdvert - доход для вашего сайта



Частные объявления в Вашем городе, в Вашем регионе и в России



Smi24.net — ежеминутные новости с ежедневным архивом. Только у нас — все главные новости дня без политической цензуры. "123 Новости" — абсолютно все точки зрения, трезвая аналитика, цивилизованные споры и обсуждения без взаимных обвинений и оскорблений. Помните, что не у всех точка зрения совпадает с Вашей. Уважайте мнение других, даже если Вы отстаиваете свой взгляд и свою позицию. Smi24.net — облегчённая версия старейшего обозревателя новостей 123ru.net. Мы не навязываем Вам своё видение, мы даём Вам срез событий дня без цензуры и без купюр. Новости, какие они есть —онлайн с поминутным архивом по всем городам и регионам России, Украины, Белоруссии и Абхазии. Smi24.net — живые новости в живом эфире! Быстрый поиск от Smi24.net — это не только возможность первым узнать, но и преимущество сообщить срочные новости мгновенно на любом языке мира и быть услышанным тут же. В любую минуту Вы можете добавить свою новость - здесь.




Новости от наших партнёров в Вашем городе

Ria.city

Российским школьникам предложили учить узбекский язык из-за мигрантов

Октябрь будет аномальным: синоптики рассказали, к чему готовиться россиянам

В центре Москвы произошло массовое ДТП с участием полицейской машины

Чем отличался слон на пачках знаменитого чая высшего сорта: пройдите тест на знание мелочей из СССР

Музыкальные новости

Стоит ли отдавать ребенка в частную школу?

Тренировка спецподразделения Росгвардии по уничтожению БПЛА прошла в ДНР

Представители Росгвардии поздравили воспитанников Центра спорта и образования «Самбо-70» с принятием торжественной клятвы

Сломавшийся Як-40 временно парализовал работу аэропорта Внуково

Новости России

Пользователи TikTok столкнулись с массовым сбоем

Магнитная буря 29 сентября 2024 года: сложный день ожидает метеопатов из-за активности Солнца

«Готовы помогать»: Лавров высказался о желании Грузии помириться с абхазами и осетинами

Есть другие методы: эксперт предостерег от частой перезагрузки гаджетов

Экология в России и мире

Почему туристов в Сочи называют странным словом  «бздых»

Олимпийские ценности: доступное жилье в Иваново сдадут по улучшенному стандарту

Невидимая угроза: врач Кутушов рассказал, как токсины попадают в вашу еду

Фестиваль «Чистопрудный Fest» покажет исторические районы Москвы с необычной стороны

Спорт в России и мире

Рахимова обыграла Биррелл и вышла во второй круг WTA 1000 в Пекине

Первую ракетку мира подводят под срок // Всемирное антидопинговое агентство будет добиваться дисквалификации Янника Синнера

Кудерметова вышла в третий круг турнира WTA 1000 в Пекине

Павлюченкова объявила о досрочном завершении сезона

Moscow.media

Стоит ли отдавать ребенка в частную школу?

Для ремонта дорог в Петербурге в 2025 году ищут подрядчиков

Задержан предполагаемый виновник смертельного ДТП с автобусом в Прикамье

Под Орлом при столкновении легковушек пострадали два человека











Топ новостей на этот час

Rss.plus






Российским школьникам предложили учить узбекский язык из-за мигрантов

Чем отличался слон на пачках знаменитого чая высшего сорта: пройдите тест на знание мелочей из СССР

Главные новости недели: актуальные события Петропавловска и Северо-Казахстанской области с 23 по 28 сентября 2024 года

Магнитная буря 29 сентября 2024 года: сложный день ожидает метеопатов из-за активности Солнца