Добавить новость

Российские топ-менеджеры приобрели представительство Jaguar Land Rover

Нет вакцины: чем опасна «детская» инфекция — скарлатина

Детский сад в ЖК «Яуза парк» Мытищ достроят в 2025 году

Наш американский слон: вывезенный с подконтрольной ВСУ территории гражданин США дал пресс-конференцию в Москве

World News in Italian


Новости сегодня

Новости от TheMoneytizer

Intelligenza artificiale, sfruttamento autentico. Africani per addestrare ChatGpt, che ammette: “Bassi salari e condizioni inadeguate”

“L’allenamento di modelli di intelligenza artificiale richiede una grande quantità di dati per addestrare il modello. Questi dati vengono spesso raccolti da lavoratori che etichettano manualmente i dati, come immagini o testo. Tali lavoratori possono essere pagati a basso salario e non sempre godere di condizioni di lavoro adeguate. Inoltre, l’uso di tali dati può anche sollevare questioni sulla privacy e sull’utilizzo etico dei dati raccolti”. Lo “dice” ChatGPT della statunitense OpenAI, colosso dell’intelligenza artificiale noto proprio per il generatore di testi lanciato nel 2022 grazie al quale l’azienda sta raccogliendo decine di miliardi di investimenti. Alla chatbot abbiamo chiesto se “dietro l’intelligenza artificiale c’è anche lo sfruttamento di lavoratori?”. Già “intervistata” da ilfattoquotidiano.it, in questo caso l’IA offre una risposta che potrebbe essere quella di un lettore del Time, il periodico americano che ha appena pubblicato un articolo in cui svela il lavoro umano a basso costo e basse tutele necessario all’addestramento di Chat GPT. Perché se a stupirci è soprattutto ciò che è in grado di fare, non meno importante è quello che non deve fare. Per farglielo capire, come ha “detto” l’interessata, bisogna spiegarle cosa è lecito e cosa no. Nonostante le formidabili capacità, il predecessore GPT-3, “è stata una vendita difficile perché l’app era incline a commenti violenti, sessisti e razzisti”, scrive il giornalista Billy Perrigo sul Time. E siccome l’obiettivo dichiarato di OpenAI è offrire un prodotto sicuro e adatto all’uso quotidiano, qualcuno deve classificare i contenuti per fornire all’IA esempi di materiale “tossico” sul quale addestrarla. E questo qualcuno, rivela il Time, sono lavoratori kenioti in outsourcing pagati 1,32 dollari l’ora per leggere ed etichettare testi, compresi quelli che descrivono graficamente abusi sessuali su minori, bestialità, omicidi, suicidi, incesti, torture e atti di autolesionismo.

IA significa grande velocità di calcolo e big data. Per questo quando a stupirci erano i motori di ricerca, tra i vertici di Goole c’era chi ammetteva: “In realtà stiamo costruendo un’intelligenza artificiale”. Ma nel Web abbiamo riversato anche il peggio delle nostre capacità espressive e l’IA, come qualunque altro prodotto da vendere alle masse, deve rassicurare l’utenza, non spaventarla con uscite inopportune. Per evitarlo, come già fatto da altri colossi della Silicon Valley, anche OpenAI si è rivolta a Sama, un’azienda di San Francisco che impiega lavoratori in Kenya, Uganda e India per etichettare dati, spiega il Time che ha esaminato centinaia di pagine di documenti interni di Sama e OpenAI, comprese le buste paga dei lavoratori che a seconda dell’anzianità e delle prestazioni prevedono stipendi compresi tra 1,32 e 2 dollari l’ora netti. Miliardi in Occidente, pochi spiccioli in Africa. “Per tutto il suo fascino, l’IA si basa spesso su un lavoro umano nascosto nel Sud del mondo che può essere spesso dannoso e sfruttato”, scrive l’autore dell’inchiesta. L’azienda ha confermato l’outsourcing in Kenya e l’importanza dei lavoro svolto per riuscire a rimuovere i dati tossici dai dataset di addestramento. “OpenAI – si legge – non rivela i nomi degli outsourcer con cui collabora e non è chiaro se abbia lavorato con altre aziende di etichettatura dei dati oltre a Sama per questo progetto”.

I contratti firmati tra OpenAI e Sama alla fine del 2021 prevedevano l’etichettatura di descrizioni testuali di abusi sessuali, incitamento all’odio e violenza. Il Time ha raccolto le testimonianze di quattro lavoratori che hanno parlato di turni di nove ore di lettura, per 150 o più testi fino a mille parole ciascuno. Tutti hanno spiegato di essere rimasti mentalmente segnati. Sulla carta erano previste sedute anche individuali con “terapisti professionalmente preparati e autorizzati”. Fatto che i dipendenti contestano, riferendo tuttalpiù di sedute di gruppo, poco utili e non sempre concesse a beneficio della produttività. OpenAI, che avrebbe pagato a Sama 12,50 dollari l’ora per lavoratore, ha dichiarato che nell’accordo era previsto un limite all’esposizione a contenuti espliciti e che questi fossero gestiti da lavoratori specificamente formati. E che ad ogni modo “Sama è responsabile della gestione dei pagamenti e della salute mentale dei dipendenti”. Come racconta ancora l’inchiesta del Time, il rapporto tra le due aziende si è interrotto diversi mesi prima del termine naturale dei contratti. Oltre ai testi, infatti, anche le immagini vanno etichettate, e sempre per OpenAI – scrive Perrigo – Sama ha iniziato a catalogare immagini sessuali e violente, comprese quelle illegali negli Usa, per poi consegnarle al committente. L’inchiesta ricostruisce lo scaricabarile tra le due aziende sui contenuti illegali. OpenAI ha parlato di “errore di comunicazione”, Sama ha risolto i contratti e posto fine alla tortura psicologica alla quale erano stati sottoposti i lavoratori, poi spostati o licenziati.

Un problema di coscienza da parte di una società che si presenta come un’azienda etica e dice di aver aiutato più di 50 mila persone a uscire dalla povertà?. Secondo il Time si è trattato piuttosto dell’effetto di un’altra sua inchiesta del febbraio 2021 in cui è descritto come Sama impiegasse moderatori di contenuti per Facebook, il cui lavoro prevedeva la visione di immagini e video di esecuzioni, stupri e abusi su minori per appena 1,50 dollari l’ora. Attraverso l’analisi della comunicazione interna, i giornalisti del Time hanno dimostrato che dopo l’uscita dell’inchiesta i dirigenti di Sama si sono affannati per limitare le ricadute e a tre giorni dalla pubblicazione l’ad Wendy Gonzalez ha scritto ad alcuni dirigenti per annunciare che il lavoro su OpenAI sarebbe presto terminato. Nel 2023 l’azienda ha annunciato di voler chiudere tutti i lavori che hanno a che fare con dati sensibili. Ma la necessità di addestrare l’intelligenza artificiale rimane, ripulendola dalla parte di Internet che non serve e dunque da una parte di noi. Non una questione di coscienza, ma di marketing. Come dimostra il lavoro del Time, per nascondere all’IA la parte peggiore di noi ad oggi abbiamo sfruttato altri esseri umani. Niente di intelligente.

L'articolo Intelligenza artificiale, sfruttamento autentico. Africani per addestrare ChatGpt, che ammette: “Bassi salari e condizioni inadeguate” proviene da Il Fatto Quotidiano.

Читайте на 123ru.net


Новости 24/7 DirectAdvert - доход для вашего сайта



Частные объявления в Вашем городе, в Вашем регионе и в России



Smi24.net — ежеминутные новости с ежедневным архивом. Только у нас — все главные новости дня без политической цензуры. "123 Новости" — абсолютно все точки зрения, трезвая аналитика, цивилизованные споры и обсуждения без взаимных обвинений и оскорблений. Помните, что не у всех точка зрения совпадает с Вашей. Уважайте мнение других, даже если Вы отстаиваете свой взгляд и свою позицию. Smi24.net — облегчённая версия старейшего обозревателя новостей 123ru.net. Мы не навязываем Вам своё видение, мы даём Вам срез событий дня без цензуры и без купюр. Новости, какие они есть —онлайн с поминутным архивом по всем городам и регионам России, Украины, Белоруссии и Абхазии. Smi24.net — живые новости в живом эфире! Быстрый поиск от Smi24.net — это не только возможность первым узнать, но и преимущество сообщить срочные новости мгновенно на любом языке мира и быть услышанным тут же. В любую минуту Вы можете добавить свою новость - здесь.




Новости от наших партнёров в Вашем городе

Ria.city

Связь с экстремистской сектой: в деле о теракте в «Крокусе» появились четыре новых фигуранта

Нет вакцины: чем опасна «детская» инфекция — скарлатина

К участию в выставке «Российская неделя искусств» приглашают псковичей

Краснодарский центр медреабилитации достроят в 2026 году

Музыкальные новости

Анималистические принты и монограмма: TWO EAGLES представил коллекцию Fall/Winter

Более 100 человек стали участниками забега «5 верст» в Балашихе

Команда подмосковного главка Росгвардии завоевала серебро в соревнованиях по гиревому спорту Спартакиады «Динамо»

Предприниматель ввез в Тульскую область 32 тонны карантинных яблок из Беларуси

Новости России

«Спартак» выиграл у ЦСКА в дерби с дракой и тремя удалениями

Бизнесмен Роман Бабоян получил 6 лет за мошенничество на 8 млрд рублей

Производитель тары в Дмитрове откроет бытовой корпус для рабочих в 2025 г

"Осторожно, Москва": в Подмосковье бюджетниц опрашивают о репродуктивном здоровье

Экология в России и мире

«Ночь искусств - 2024»: что посетить гостям столицы

Компания ICDMC и “Всероссийский пиар-саммит”: в поисках новых решений

В международный день врача прошла премия THE MEDICAL STARS AND BEAUTY AWARDS

В международный день врача прошла премия THE MEDICAL STARS AND BEAUTY AWARDS

Спорт в России и мире

Россиянка Шнайдер с победы стартовала на турнире WTA в Гонконге

Теннисная школа экс третьей ракетки мира Петровой открылась в Татарстане

Российская теннисистка Шнайдер вышла в полуфинал турнира WTA в Гонконге

«Почему ты такая низкая?» Арина Соболенко пошутила над известной теннисисткой. Видео

Moscow.media

Количество жалоб на доступность ОСАГО снизилось на 87 процентов – Банк России

Обзор автомобиля «Москвич» 3

Портативный ТСД корпоративного класса Saotron RT-T70

Рязань осенняя











Топ новостей на этот час

Rss.plus






Краснодарский центр медреабилитации достроят в 2026 году

Дороги Подмосковья в субботу вечером загружены на 6 баллов

Российские топ-менеджеры приобрели представительство Jaguar Land Rover

Анималистические принты и монограмма: TWO EAGLES представил коллекцию Fall/Winter