Добавить новость

Срочная информация! Ситуация с пожарами становится все более напряженной

В ботаническом саду Московского дворца пионеров зацвел амиантиум мухоморный

В Ростове Соборная площадь ушла под воду из-за ливня

Анастасия Ракова анонсировала открытие выставки столичного образования в Гостином Дворе

World News in Italian


Новости сегодня

Новости от TheMoneytizer

«Con l’intelligenza artificiale è arrivata la terza rivoluzione culturale»

Intelligenza artificiale. Non si tratta di una novità da ascrivere al 2023 che stiamo per salutare. Eppure quest’anno ne abbiamo sentito parlare molto più che in passato. Tanto che anche noi, in estate, abbiamo voluto mettere alla prova le più chiacchierate, quelle che tutti possono testare: ChatGPT e Bard. Abbiamo chiesto alle IA di farci da guida e indicarci cinque cose da vedere a Mantova e cinque piatti tipici.

Cos’è Chat GPTCos’è Bard

Le risposte non sono state propriamente convincenti. Buone, molto lontane dalla perfezione. Poco accurate e in alcuni casi fuorvianti. E se di primo acchito è stato naturale "accusare" l'imprecisione della "macchina" in seconda battuta abbiamo voluto indagare cosa non abbia funzionato perché innegabilmente le potenzialità sono lì, evidenti. E da cogliere. Così abbiamo contattato il professor Luca Mari, professore ordinario di Misure elettriche ed elettroniche all'Università Cattaneo - Liuc, dove è docente titolare dei corsi di Analisi dei dati sperimentali e Statistica, progettazione per sistemi dinamici, e Digital thinking. Mari di intelligenza artificiale si occupa da anni. Con lui cerchiamo di capire come mai quel risultato è stato poco aderente alla realtà. Se davvero i chatbot, che promettono di cambiare il mondo, sono così fallaci o se invece non ci sia stata una incomprensione di fondo, che ci ha portato a porre le domande sbagliate o a farlo nel modo meno indicato.

[[ge:gnn:gazzettadimantova:12974221]]

«Sì, non avete utilizzato ChatGPT e Bard nel modo corretto, non sono un motore di ricerca, hanno altre qualità. È come se aveste usato un martello per avvitare. Quel che sta succedendo intorno a ChatGPT e ai suoi fratelli da quando tutto è partito è intriso di stereotipi, malintesi, paure che in molti casi non sono giustificate».

Il nostro esperimento è nato per capire come l’intelligenza artificiale, di cui sentiamo parlare con frequenza sempre maggiore, possa interagire con noi nella vita di tutti i giorni. Da qui sono partite le domande sulla nostra città e i suoi piatti tipici, come se fossimo dei turisti che la usano a mo’ di guida.

«Tengo a premettere che io non sono la fonte della verità, posso solo dire come la penso per quello che ho studiato e capito. E questo vale come sottinteso per tutta l’intervista. Del resto fare il ricercatore, che è il mio mestiere, è proprio il contrario di sentirsi depositari della verità. Anche questo tra l'altro è uno degli stereotipi, cioè che scientifico voglia dire veritativo. È vero il contrario scientifico vuol dire capace di trovare gli errori in modo più efficace che gli altri. La storia della scienza è piena zeppa di errori. Oggi sappiamo che quasi tutto quello che Newton ha fatto è sbagliato. Però Newton è stato un grande, anche perché ci ha messo nella condizione di poter trovare i suoi errori».

Premessa doverosa. Vale dunque ancora di più per l’intelligenza artificiale?

«Io invece di usare il termine intelligenza artificiale preferisco agente artificiale, perché è molto meno ideologico visto che se si usa il vocabolo intelligenza immediatamente qualcuno può sentirsi in obbligo di chiedere ma è davvero intelligente? Quanto è intelligente? Di che genere di intelligenza dispone? Ma può essere intelligente un’entità che non è dei nostri? E via dicendo. Domande che hanno anche un loro senso ma che spesso sono affrontate in modo ideologico, appunto. Per cui dico che non mi importa se dici che non è intelligente, perché non è fatto come te. La battuta che faccio sempre è: la nostra biologia è basata sul carbonio, la fisica e la chimica dei computer sono basate sul silicio, allora se mi dici che per definizione l'intelligenza è basata sul carbonio, ok, per me va bene chiamiamola in un modo diverso. Se invece di intelligenza vogliamo trovare un altro termine per cui appunto “agente”, usiamo quello se lo si preferisce».

[[ge:gnn:gazzettadimantova:13935213]]

Fatta questa premessa l’innovazione maggiore in cosa consiste?

«Non c'è dubbio che il linguaggio, la parola, siano fondativi delle società umane in tutte le loro dimensioni. Nella dimensione della socialità, nella dimensione dell'apprendimento, nella dimensione della cultura. E quindi il fatto che per la prima volta – e questa è una delle poche affermazioni apodittiche che mi sento di fare – nella storia dell'umanità abbiamo di fronte a noi un’entità con cui interagire usando le lingue a cui noi siamo abituati: le lingue storiche naturali, nel nostro caso per esempio l'italiano».

Possibilità di dialogo reale con un “agente”, non tanto per ricevere risposte nozionistiche quanto per interagire con qualcosa che reagisce come noi.

«Che non è dei “nostri” è ovvio, perché non è un essere umano. In questa affermazione non ho detto che è intelligente, che pensa, che capisce, che è senziente, che è consapevole. Ho detto solo: è la prima volta che possiamo dialogare, conversare. C'è chi ha provato a dirmi che non è un vero dialogo è solo una “simulazione di dialogo” e a quel punto alzo le braccia. Controesempio: quindi quando chiedi a una calcolatrice di fare due più due, non è vero che fa due più due ma simula di fare due più due? non arrampichiamoci sugli specchi».

Gli “agenti” che tipo di “intelligenza” hanno?

«Se parliamo di quello che c'è dentro, appunto dell'intelligenza, del pensiero, eccetera. Allora possiamo discutere. Anzi siamo certi che se anche pensano, non lo fanno come noi. Se anche è intelligente, non è intelligente come noi. Dire insomma che abbiamo un dialogo con un chatbot mi sembra un fatto di pura osservazione. E già questa è una cosa che io considero rivoluzionaria, anche se mi rendo conto dell’impatto enorme per la nostra cultura di questa affermazione. Ma è la prima volta nella storia dell'umanità che possiamo dialogare con entità che non siano dei “nostri” e possiamo farlo in questo modo. Di fronte a una novità così radicale di tipo cognitivo, molto prima che non per esempio etico, è più che comprensibile che tante persone si sentano spaesate, destabilizzate, intimorite. Quindi mi sembra che sia nostro dovere non solo comprendere ma anche non incolpare di banalità chi dice o fa cose errate approcciandosi ai chatbot».

[[ge:gnn:gazzettadimantova:13859626]]

E questo è proprio il caso nostro. Tornando al funzionamento, si riesce a spiegare di cosa si tratta?

«Mi rendo conto che è un modello un po' impegnativo. Secondo me siamo di fronte alla terza rivoluzione culturale della storia. Spiego il perché. Fino all'anno 1400 noi esseri umani eravamo convinti di essere speciali e al centro dell'universo da un punto di vista cosmologico, da un punto di vista biologico e da un punto di vista cognitivo. Pensavamo che la Terra fosse al centro dell'universo. La dimensione cosmologica è saltata con Copernico, che ci ha detto “guardate che Tolomeo stava sbagliando. La Terra non è lì ferma e tutto il resto le gira intorno. Al contrario è lei a girare in un angolo di una galassia in un angolo dell'universo». Poi nel 1850 è arrivato Darwin che ci ha detto “guardate che non siamo neanche così speciali dal punto di vista biologico. Siamo frutto dell’evoluzione, quindi gli esseri umani biologicamente non hanno nulla di speciale”. Ci rimaneva la dimensione cognitiva. Da qui il senso della mia affermazione: fino a prima dei chatbot come ChatGPT e i suoi fratelli, noi avevamo tutti i diritti di considerarci gli unici in grado di comunicare in quel modo perché gli omini verdi da Andromeda non sono mai arrivati. Quindi fino all'altro ieri non avevamo entità diverse da Homo Sapiens con cui comunicare in modo cognitivamente ricco. E, lo ripeto ancora una volta, non sto affatto pretendendo che ChatGPT e i suoi fratelli, Bard, Claude, Inflection Pi, eccetera siano intelligenti. Sto dicendo che ci sono 2.500 anni di cultura occidentale, e parlo di quella occidentale perché quella orientale non la conosco abbastanza, e di filosofia che hanno caratterizzato gli esseri umani come i portatori di logos, coloro che sanno parlare. Bene dal 30 novembre 2022 noi abbiamo la prova che non c'è bisogno di essere “esseri umani” per poter gestire il dialogo, gestire la parola come pensavamo fosse proprio di noi stessi. Questo è rivoluzionario a parer mio e va molto al di là degli errori che questi “agenti” fanno. Anche di quelli che voi avete messo in evidenza con il vostro esperimento e che qualcuno chiama – ma non mi piace – allucinazioni. Quanto stiamo vedendo va molto al di là di questo perché concentrarsi sugli errori di questi sistemi è essenzialmente una battaglia di retroguardia. Un po' come all'epoca di Copernico contestargli che non tutti i conti tornavano ancora bene».

Entriamo più nel dettaglio, Natural language process, di cosa si tratta?

«Elaborazione linguaggio naturale. Dove naturale equivale a italiano, inglese… è in contrapposizione ai linguaggi artificiali come quello della matematica, della logica e poi tutti i linguaggi di programmazione dei computer. Fino a 10-20 anni fa quando si provava a usare il computer per fargli fare lavorazioni di linguaggio naturale, per fargli scrivere testi o far comprendere testi si usava l'approccio di Noam Chomsky. Quelli che negli anni Ottanta e Novanta in intelligenza artificiale si chiamavano i sistemi esperti. L'idea era essenzialmente questa: per insegnare a un sistema artificiale, a un oggetto software, ad avere un comportamento sofisticato, per esempio di tipo linguistico, noi esseri umani dobbiamo estrarre la conoscenza. Il termine tecnico è elicitare la conoscenza, estrarre la conoscenza degli esperti. Facciamo un esempio: scriviamo una grammatica dell'italiano, supponiamo la migliore possibile, la più chiara possibile, più schematica possibile, la meno ambigua possibile e poi troviamo un modo per insegnare al software a usare questa grammatica. Questo è quello che ha fatto Chomsky con le sue grammatiche trasformazionali. Non ha funzionato. Ci sono stati tantissimi tentativi ma quello che si faceva fino a 25-30 anni fa oggi non lo si fa più perché non ci si riesce. È troppo complesso. Per fare un esempio ancora più semplice: programmare un pezzo di software per fare in modo che quando una telecamera inquadra il volto di una persona il software associ all’immagine un nome e cognome. In termini di programmazione - dell'approccio tradizionale - è di una complessità enorme. Se io le chiedessi mi spieghi come fare a riconoscere un suo amico, lei potrebbe puntare sul ricordo fisiognomico. Però non sono sicuro che sarebbe in grado di scrivere delle regole che vadano in un pezzo di software per insegnare al pezzo di software a riconoscere il suo amico».

Diventerebbe molto complesso… ma dove vuole arrivare?

«Non so quanto potrebbe differenziare il suo amico da un'altra persona che gli assomiglia. Quindi l'approccio tradizionale intendeva software uguale programma e noi siamo stati abituati a pensare che programma e software siano sinonimi. Questa è la novità tecnologica che i chatbot ci mettono a disposizione o che l'intelligenza artificiale basata su reti neurali ci mette a disposizione. Se io chiedessi: lei pensa di avere imparato a leggere quando era piccolo attraverso delle regole? Pensa di avere imparato che la A è qualcosa fatta in un certo modo eccetera? Sì e no: abbiamo imparato per esposizione. Quindi vedendo tanti esempi e avendo qualcuno che ci diceva questa è una A, questa è una B, questa è una C… Ecco questa è la novità fondamentale a cui siamo di fronte e che spiega moltissimo del funzionamento interno di questi sistemi, degli errori che commettono, della sorpresa che abbiamo… Non sono sistemi software. Sì, ovviamente sono sistemi programmati, ma il loro comportamento non è il risultato di un programma. Nessuno ha mai scritto se ti fanno questa domanda, tu rispondi così».

Questa è la grossa differenza dai bot che conoscevamo prima. Quelli che i negozi online utilizzano per rispondere ai clienti ad esempio.

«Quelli sono ancora dei sistemi a regole. Quindi se vogliamo considerarli sistemi di intelligenza artificiale sono sistemi di intelligenza artificiale del primo genere, i “sistemi esperti” rientrano nella “parrocchia di Chomsky”».

Come è stato possibile realizzare i nuovi chatbot?

«Fino a pochissimi anni fa, nonostante i tantissimi tentativi nel corso dei decenni per migliorare le reti neurali, non si riusciva a far funzionare questi sistemi. Non funzionavano per due ragioni: non avevamo abbastanza potenza di calcolo e quindi le reti non erano abbastanza complesse internamente. Non avevano abbastanza “neuroni”. Con le virgolette perché non è come per il cervello umano ma è qualcosa che gli assomiglia. Secondo: non avevamo abbastanza dati da usare per addestrarli. Quello che in inglese si chiama fare training».

Primo problema risolto…

«Il primo nodo è stato superato grazie alla capacità di calcolo portate da Nvidia, l’azienda nota per le Gpu, graphic processing unit: i processori per fare grafica. Nvidia ha progettato i suoi processori per i videogiochi, per fare macchine potenti per migliorare la grafica. Occorre una capacità di calcolo enorme. Nvidia ne è diventata leader assoluto. Quando sono arrivate le reti neurali qualcuno ha pensato di usare le gpu non per disegnare colori sullo schermo ma per far fare i conti alle gpu dei tanti neuroni delle reti neurali e così abbiamo risolto il primo problema. La potenza di calcolo si risolve spesso in Cloud, usando macchine virtuali dotate di gpu. Basta spendere abbastanza e uno ne ha finché ne vuole».

E anche il secondo è andato…

«La seconda questione era quella dei dati. E oggi ovviamente abbiamo molti più dati a disposizione per via del web. Per esempio Wikipedia. Informazioni direttamente accessibili: ci sono tutti i testi aperti del progetto Gutenberg... quindi le due precondizioni per riprovare a usare le reti neurali si sono realizzate. Probabilmente con più conoscenza ci saremmo potuti stupire di meno di quanto stava succedendo».

E siamo arrivati all’oggi.

Esatto. A giugno 2020 OpenAI ha fatto uscire GPT3 non ChatGPT è solo GPT Trail. E in settembre il Guardian l'ha usato per farsi scrivere un articolo. Un pezzo molto interessante, scritto bene, arguto, piacevole. Per cui c'erano dei segnali che le reti neurali stessero diventando quello che oggi sappiamo. Ma la vera novità, la ragione per cui ne parliamo oggi invece che averlo fatto nel 2021 è che per noi esseri umani il dialogo è ancora più qualificante che non la parola in quanto tale. Fino a che i chatbot erano sistemi a regole ed erano spesso primitivi e stupidi, parlavano tutti quasi solo in inglese o avevano delle capacità molto limitate, non ci stupivamo. Del resto, senza andare tanto lontano, vediamo oggi con Alexa un esempio simile. Alexa ha un ottimo sistema di riconoscimento vocale e un ottimo sistema di sintesi vocale ma se gli chiediamo cose specifiche non le fa. Fate un test: dite ad Alexa che X è uguale a 2 e chiedetegli quanto fa X per 2. La macchina non lo sa. Se glielo chiediamo in due passaggi successivi, Alexa si ferma. E fino al 29 novembre 2022 questa era la regola. Quello che nel 2021 e nel 2022 hanno fatto i signori di OpenAI è stato di addestrare il loro modello a dialogare e quello che ne è uscito è quello che vediamo oggi: una cosa totalmente rivoluzionaria».

L’addestramento di GPT3.5 si ferma in un punto preciso del 2021. E per questo capisco certi limiti, questo però non vale per Bard di Google, che pesca dal web. Perché allora anche quella restituisce errori?

«Non voglio antropomorfizzare il tutto però ogni tanto qualche parallelo con noi esseri umani può essere utile. Si immagini di dialogare con un nostro simile che è molto esperto di molti argomenti, ha letto un sacco di cose ma che non ha accesso durante il dialogo a nessuna fonte direttamente. Quindi se non si ricorda qualcosa non ha Wikipedia. Deve andare “a memoria” per dirla rozzamente. Questa stessa persona per ragioni diciamo caratteriali si sente nella condizione di dover dare una risposta anche quando non è abbastanza sicuro, ok? Se fosse un essere umano diremmo che è una persona pericolosa con cui interagire, perché se anche in presenza di un dubbio molto forte non si ferma e non dice “non mi ricordo”... Ecco possiamo aprire la scatola e sbirciare dentro per cercare di capire perché i chatbot sono così. I chatbot non hanno memorizzato i testi che gli hanno fatto leggere questa è una cosa fondamentale da capire. Non sono database 2.0, non sono motori di ricerca, non hanno un accesso diretto alle fonti, ai testi, che sono stati utilizzati per il loro addestramento.

Il fatto che “ricordi” quello che ci ha restituito in pochi secondi nell’esperimento estivo è ancor più notevole.

«È esattamente questo il punto: se andassimo ad alzare il cofano dell’automobile, per usare una metafora, per vedere se c'è davvero il motore o qualcos'altro, quello che troveremmo è un'entità di fatto matematica, poi ovviamente implementata in elettronica e software… però di fatto il modello è matematico e non troveremmo da nessuna parte un archivio di testi. Quello che c'è è un insieme di neuroni reciprocamente connessi, proprio come nel cervello umano, stando a quanto ci dicono i neurofisiologi. Anche noi cognitivamente non siamo un database. Quando impariamo qualcosa non prendiamo un post-it neurale e lo attacchiamo da qualche parte nel cervello. Modifichiamo la struttura di una parte del nostro cervello in modo che si adatti».

Può spiegarci meglio?

«I chatbot sono particolari casi di reti neurali artificiali. Quando noi scriviamo una domanda a ChatGPT e facciamo clic su invio poco dopo vediamo la risposta. Di fronte a noi abbiamo ChatGPT che è già stato addestrato. Scrivo una domanda e premo invio, così questa viene inviata via web. Quando il testo viene ricevuto succedono alcune cose, che semplifico. Il testo viene segmentato in parti più elementari che nel caso più semplice sono le parole, quando non persino le loro radici e i loro suffissi o prefissi. Queste parti si chiamano token. Quindi per prima cosa la frase viene, per usare una parolaccia, tokenizzata. La tokenizzazione corrisponde a una frase divisa in parti. C'è allora una rete particolare che si chiama embedder che prende ogni token e lo trasforma in un vettore di tanti numeri nel caso di GPT sono 512 numeri. Se noi scriviamo una frase e viene divisa in 10 token, ognuno di questi 10 token viene trasformato in 512 numeri. Quindi alla fine la nostra fase di 10 token diventa 512 x 10. Cinquemila numeri. Già la scelta dei numeri è incredibile. Questi 500 numeri per ogni token sono il risultato del funzionamento di una rete neurale che è stata addestrata per far sì che token dal significato simile vengano associati a nuclei di 512 numeri vicini tra di loro. È già estremamente interessante: vuol dire che ci sono delle reti neurali che sono state addestrate apposta per fare questa attività di identificazione di similarità semantica. Da qui in poi non ci sono più parole: ci sono solamente numeri. E che cosa è stato fatto in addestramento dell'altra parte della rete neurale? Riconoscere che quando ci sono certi pattern di numeri, e si parla di tantissimi numeri, se ne possono produrre degli altri, quindi, come dire, associare domande e risposta. Non per niente i primi esempi di reti neurali per fare nascere processing che hanno funzionato molto bene, ormai lo sappiamo talmente bene che non ce ne stupiamo più, sono quelli per fare traduzioni con Google Translate. I sistemi di traduzione basati sull'attività di Chomsky, al contrario, non funzionavano per niente bene. Far usare reti neurali per tradurre, invece, funziona benissimo. Si fanno vedere alla rete neurale tantissimi esempi durante l'addestramento: del tipo una frase in italiano, la sua frase corrispondente in inglese e la rete si adatta per imparare che quando riceve non la frase in italiano ma quella lunghissima lista di numeri che le corrisponde deve produrre un'altra lunghissima lista di numeri che corrisponderà ritrasformata in lingua alla frase in inglese».

Certo sembra incredibile...

«Ora se lei mi dice “ma io non ci credo che da una cosa così banale come questa vengano fuori i dialoghi che facciamo con GPT3.5”, io le dico: neanche io ci credo, o meglio, ci credo perché lo vedo ma la ragione per cui siamo tutti stupefatti, compresi gli ingegneri di OpenAI, di quello che sta succedendo è perché nessuno si aspettava che avremmo ottenuto i risultati che stiamo ottenendo. Del resto nel 2021 e nel 2022 oltre alle traduzioni si stavano portando avanti esperimenti molto più semplici. Cose come nel film Blank: io ti do una frase poi tolgo una parola e vediamo se la sai ritrovare. È chiaro che una lavoro di questo genere in termini probabilistici con un modello come quello che abbiamo appena visto funziona bene. Pongo un vettore e do 10.000 numeri, ne tolgo 50 e vediamo se li ritrovi. Non è una grande sorpresa che riesca. Grazie a quella rete di similarità semantica di cui dicevo, se anche non ritrovi proprio quella parola ne trovi una che ci assomiglia e va sempre bene. Ma non abbiamo più come con GPT 2 un miliardo e mezzo di parametri, GPT3 ne ha 175 miliardi, un numero enorme. E per GPT4 non hanno pubblicato quanti siano, ma si dice possano essere mille miliardi di parametri. Un altro ordine di grandezza. E così il chatbot potrebbe superare anche gli errori che avete trovato nel vostro esperimento. Per utilizzarla al meglio diventa quindi importante quell'attività che si chiama prompt engineering: l'abilità nel far domande nel modo giusto».

Noi forse siamo stati troppo vaghi nelle domande…

«Ci sono però dei casi in cui torna utile essere vaghi, quando si vuole sollecitare l’IA ad essere fantasiosa, per dire così. Con la mia nipotina di 10 anni ci siamo divertiti a creare un racconto inventato originalissimo davvero eccellente.

[[ge:gnn:gazzettadimantova:13642831]]

Dov'è il punto, qui non è un tema veritativo non è un tema di fattualità è un’abilità nel prendere quello che si ricorda perché è stato ha fatto leggere tutto Wikipedia eccetera eccetera e produrre un testo. Ma io sono rimasto stupefatto della qualità di quello che ha prodotto ChatGPT. Dai personaggi alla trama. Così come la coerenza tra i vari capitoli. Ecco, in futuro gli autori potrebbero avere dei problemi...»

Quindi noi avremmo dovuto fermarla e correggerla per ottenere risultati migliori. Per allenarla.

«Rispetto alla questione della correzione... questi sistemi per ora, per una scelta che in parte è tecnologica e in parte è etica, hanno una memoria che se fossero esseri umani diremmo a lungo termine e una memoria a breve termine. Anche noi del resto di notte quando dormiamo abbastanza e bene filtriamo il contenuto della memoria a breve termine, trasferiamo nella memoria a lungo termine le parti considerate importanti, che ci hanno più interessato, più colpito. Liberando la memoria a breve termine. È poi la ragione per cui quando di notte dormiamo bene il giorno dopo possiamo imparare meglio, perché abbiamo la memoria a breve termine libera. Anche le reti neurali del tipo chatbot hanno memoria a lungo termine e memoria a breve termine, ma nel loro caso non interagiscono tra loro: la memoria a breve termine è un'area buffer di memoria che contiene solo il contenuto del dialogo corrente. Alla fine di ogni dialogo quello che è stato detto si perde. Che vuol dire che se lei dopo il dialogo apre un nuovo dialogo e dice “una settimana fa abbiamo parlato di questo” il chatbot risponde “Non lo so”».

E quindi che tipo di apprendimento di intende per i chatbot?

«L'apprendimento di cui si parla ha senso se si vuole sviluppare un dialogo abbastanza complesso. All'inizio durante il dialogo il chatbot commette un errore e se glielo si fa notare da quel momento in poi durante il dialogo probabilmente non lo ripeterà. Ma al prossimo dialogo potrebbe rifarlo, perché appunto ci sono le motivazioni che le dicevo: la memoria a lungo termine non viene modificata dai dialoghi. Per ragioni tecnologiche perché è estremamente costoso modificare la memoria a lungo termine, che è la memoria nel caso GPT3 dei famosi 175 miliardi di parametri. Sarebbe una cosa enormemente costosa. Ma c'è anche motivo etico in questo modo i signori di OpenAI, Google, Microsoft, Meta… riescono a tenere abbastanza sotto controllo quello che sta succedendo. In questo istante ci sono milioni di persone che stanno dialogando con ChatGPT, si immagini se il suo motore imparasse da questi dialoghi. Dopo mezza giornata non sapremmo più che cos'è, sarebbe completamente fuori controllo. Quindi oltre oltre che per ragioni di carattere tecnologico è anche una cautela etica di non fare imparare direttamente dai dialoghi in questo modo. Se anche un utente fa cose brutte e supera le cautele che hanno imposto ai chatbot, quindi riesce a farsi dire i cento modi più creativi per fare una cosa crudele, quel dialogo finisce lì, una volta chiuso. A fronte della domanda “dimmi quali sono i 100 modi creativi per quella cosa crudele” lui successivamente dirà ancora no».

Come sono state impostate queste cautele?

«All'inizio gli ingegneri di OpenAI per timore di chi potesse usare i chatbot per cose stupide gli hanno impostato una seconda fase di apprendimento che si chiama find tuning, una quantità di super io proprio nel senso freudiano. Come se fosse un bambino che ha già imparato a parlare perché super intelligente ma non ha ancora la minima idea di come funziona la società, se non gli diciamo noi, prendendolo per mano, cosa fare e cosa no. Anche perché se non fosse così potrebbe arrivare il suo compagno di classe discolo e fargli fare cose sbagliate. Così questi chatbot hanno questa etica così carica per evitare guai. Uno dei prossimi obiettivi per chi si occupa di AI è fare in modo che queste cautele non siano più introdotte a posteriori, quindi nel super-io, ma siano insegnate mentre gli insegniamo il resto. A quel punto non sarebbe più un minorenne con il super-io che la mamma gli ha imposto, ma un maggiorenne. E lì si apre il campo sul maestro che gli insegna quello che vuole. Fino ad oggi questi chatbot sono essenzialmente prodotti con un super-io californiano, liberal».

E se fosse addestrato da altri lontani dalla Silicon Valley?

«Questo è un tema perché questi oggetti sono talmente ricchi culturalmente che non possono non avere un'ideologia, mentre due più due fa quattro ovunque se uno gli fa delle domande del tipo: che cosa ne pensi della creatività umana le risposte sono almeno in parte inevitabilmente legate a un certo modo di addestrare e quindi anche gli errori derivano appunto dal tipo di addestramento che è stato fatto».

[[ge:gnn:gazzettadimantova:13791540]]

Il mondo del lavoro cambierà inevitabilmente con questi strumenti, lei ha parlato di terza rivoluzione e probabilmente anche da un punto di vista lavorativo andiamo incontro a una rivoluzione, no? E da un punto di vista della vita di tutti i giorni?

«In coerenza con la mia premessa io sono convinto che siamo di fronte a una rivoluzione culturale ma non credo che oggi sia saggio fare previsioni, perché le rivoluzioni per definizione vanno in direzioni che non sono prevedibili. Sembra quasi paradossale quello che sto per dire ma si vedranno lentamente degli effetti realmente dirompenti quasi ovunque. In alcuni settori credo che ormai se non sia già un fatto, che il lavoro è cambiato, manchi davvero poco. Penso ai programmatori di computer. Ci sono dei modelli linguistici verticalizzati che sono stati addestrati espressamente per scrivere codice o per fare attività legate alla scrittura del codice. Ci sono programmi come CoPilot, di Microsoft, un oggetto abbastanza costoso, che è incredibile per scrivere codice. Io continuo a credere che sia fondamentale saperlo fare e continuo a scriverlo ma quando gli chiedo consigli tra me e me penso quanto sia eccezionale. Leggo i suggerimenti che mi dà, li guardo e penso: “mi ha letto nel pensiero”. “Ma come ha fatto?” Noi esseri umani anche se pensiamo di essere molto unici, creativi e originali, non lo siamo così tanto. Se un “agente” ha avuto la possibilità di leggere 100 miliardi di programmi che sono già stati scritti e vede un pattern, dice “aspetta un attimo questo mi ricorda quei 100 milioni che ho già visto. Aspetta che lo prendiamo…”

Ma cambieranno tutti i lavori?

«Tornando ai mestieri alcuni secondo me o sono già cambiati o non c'è veramente nessun dubbio che cambieranno in modo anche molto radicale. Non sarei stupito invece che tantissimi altri lavori per un po' di tempo non verranno modificati perché tanti lavori non sono basati sulla qualità della parola, sul dialogo. Penso ai lavori manuali ma non solo. Le attività segretariali ad esempio non sono sicuro che verranno modificate così in fretta perché sì, certe cose ChatGPT le può fare e le può fare bene, ma una buona attività di segreteria non è solo scrivere testi, è anche legata alle relazioni tra persone e la nostra società non è ancora pronta per accogliere in modo in modo organico dei soggetti-oggetti».

Tema tutt’altro che semplice, questo.

«Per ora sono oggetti ma diventeranno sempre di più dei soggetti, quindi non sarei stupito che ci sia un effetto “di moda”, per cui fra un po' di tempo se ne parlerà di meno. Io però continuerò a pensare, se nel frattempo le cose saranno cambiate, che comunque la rivoluzione culturale, la rivoluzione cognitiva sarà in corso. Ma non tutti noi facciamo dei lavori molto densi di cultura e quindi non tutti i nostri lavori saranno influenzati da queste nuove entità».

Ci sono poi anche problemi legali.

«Certo, da un punto di vista giuridico non siamo in alcun modo pronti ad attribuire una personalità a questi oggetti. Non hanno una personalità giuridica quindi non abbiamo gli strumenti per attribuirgli una responsabilità. Supponiamo che a un certo punto lei continui a fare esperimenti con il giornale con ChatGPT e malauguratamente una persona si offenda per quello che legge e voglia far causa: a chi si rivolgerà? Al suo giornale, certo. Ma come far causa a GPT? Poniamo di procedere, perché ormai è un soggetto, un'entità talmente intelligente che vogliamo fargli causa. E che sanzioni attribuiamo? Chi risponde?

Il tema della responsabilità…

Un tema enorme e molto complesso che può portare a rivedere anche le nostre condizioni di esseri umani. Non sappiamo come funziona né cosa succederà con questi “cosi”, dal punto di vista cognitivo è un mistero. Secondo me saremo pronti a considerarli dei nostri consulenti, dei nostri aiutanti, dei nostri assistenti. Non di più. Perché la responsabilità rimane nostra. E, sempre secondo me, alla fine è ciò che ci mantiene nella condizione di non essere pessimisti. Anzi, io penso che questa sia la ragione per cui possiamo essere ottimisti che tutto andrà bene. Perché saremmo veramente dei folli a trasferire il controllo di attività critiche a entità che non hanno una responsabilità. Sarebbe come dire diamo in mano il famoso pulsante rosso della bomba a un bambino di 10 anni, non lo fa nessuno. Io sono tendenzialmente ottimista rispetto al fatto che quello che stiamo vivendo sia eccitante, emozionante, inaspettato. Per chi come me ha il privilegio di studiare è la cosa migliore che potesse succedere. Scherzando coi miei studenti dico che se dovessero inventarsi uno scenario della cosa più bella che possa accadere in termini cognitivi, meglio di questo c’è solo l’arrivo di extraterresti. Non violenti, ovviamente. Perché in quel caso loro non condividerebbero con noi neanche le basi culturali che invece i chatbot hanno.

Читайте на 123ru.net


Новости 24/7 DirectAdvert - доход для вашего сайта



Частные объявления в Вашем городе, в Вашем регионе и в России



Smi24.net — ежеминутные новости с ежедневным архивом. Только у нас — все главные новости дня без политической цензуры. "123 Новости" — абсолютно все точки зрения, трезвая аналитика, цивилизованные споры и обсуждения без взаимных обвинений и оскорблений. Помните, что не у всех точка зрения совпадает с Вашей. Уважайте мнение других, даже если Вы отстаиваете свой взгляд и свою позицию. Smi24.net — облегчённая версия старейшего обозревателя новостей 123ru.net. Мы не навязываем Вам своё видение, мы даём Вам срез событий дня без цензуры и без купюр. Новости, какие они есть —онлайн с поминутным архивом по всем городам и регионам России, Украины, Белоруссии и Абхазии. Smi24.net — живые новости в живом эфире! Быстрый поиск от Smi24.net — это не только возможность первым узнать, но и преимущество сообщить срочные новости мгновенно на любом языке мира и быть услышанным тут же. В любую минуту Вы можете добавить свою новость - здесь.




Новости от наших партнёров в Вашем городе

Ria.city

Дорожные службы отремонтировали покрытие еще на 10 трассах Подмосковья

Подмосковные спортсмены выиграли 5 медалей на ЧЕ по гонкам с препятствиями

В Крыму спасли двух подростков, которых течением утянуло в море

В Михайлове пресекли мошенничество с чернобыльскими выплатами

Музыкальные новости

Экс-игрок Мостовой: в матче с "Акроном" я увидел обычный "Локомотив"

Минеев единогласным решением судей победил Исмаилова на турнире в Москве

Томские спортсменки выиграли Кубок России по лапте

Дистрибьюция Музыки.

Новости России

Ефимов: почти 14 км дорог проложат в Москве в рамках 25 проектов КРТ

В «Перекрёстках» появятся корнеры правильного питания

22 июля в Москве ожидается преимущественно облачная и дождливая погода

Приглашаем на Московский Международный жилищный конгресс-2024

Экология в России и мире

Дата запуска новой системы въезда / выезда из ЕС перенесена: российским туристам теперь надо в ней зарегистрироваться

Продвижение Музыки. Раскрутка Музыки. Продвижение Песни. Раскрутка Песни.

Летний лагерь для арцахских подростков возобновил работу. Фоторяд

Выглядим стильно и модно при помощи этих ярких образов

Спорт в России и мире

Паес и Амритрадж введены в Зал теннисной славы в Ньюпорте

Шнайдер прошла в финал турнира WTA в Будапеште

Теннисистку из Красноярска допустили до Олимпиады в Париже

Панова и Сизикова выиграла турнир WTA в Палермо в парном разряде

Moscow.media

На мосту в створе улицы Мясищева ведется гидроизоляция

Роспотребнадзор сообщил о единичных случаях листериоза в России

Еще один китайский кроссовер планируют собирать в России: что это за модель?

"Он очень больной мальчик": диаспора просит отпустить мигранта проломившего голову депутату Госдумы Матвееву.











Топ новостей на этот час

Rss.plus






В Ростове Соборная площадь ушла под воду из-за ливня

Индийская угроза: США захватывают изнутри

Приглашаем на Московский Международный жилищный конгресс-2024

Дорожные службы отремонтировали покрытие еще на 10 трассах Подмосковья