C’è articolo e articolo. Uno come quello che state leggendo si propone di informare rivolgendosi a un largo pubblico. Altri, usciti su riviste specializzate, sono indirizzati a esperti in un dato ambito della ricerca e comunicano avanzamenti della conoscenza giustificandone la plausibilità con metodi e procedimenti oggettivi.
È difficile sottovalutare l’importanza di questi ultimi. Costituiscono il perno di decisioni politiche, sociali, sanitarie, educative con enormi ripercussioni sulla vita di ognuno di noi. Proprio per questo preoccupa il fatto che l’intelligenza artificiale, con i suoi nuovi programmi di analisi, revisione e riprogettazione di testi, sia ormai in grado di produrre finti studi capaci di ingannare gli scienziati stessi: all’apparenza, questi pseudo-articoli seguono metodi riconosciuti nel campo, hanno una logica interna e fanno un uso corretto della terminologia e della letteratura sull’argomento; ma di fatto non costituiscono un reale progresso della conoscenza scientifica e possono perfino essere scorretti nelle conclusioni. L’ultimo grido di allarme arriva da Nature, la rivista regina di questo tipo di articoli: «Il programma ChatGBT crea testi realistici e razionalmente accettabili in risposta a precisi suggerimenti degli studiosi. Da quando la compagnia di software californiana Open Ai l’ha messo in commercio, sono emersi tra i ricercatori innumerevoli problemi etici riguardanti il suo uso, perché i testi prodotti sono quasi indistinguibili da quelli elaborati da una mente umana».
Qualche mese fa alcuni scienziati avevano generato per prova, attraverso ChatGPT, un vero articolo di ricerca e anche un editoriale di carattere scientifico, all’apparenza credibili. Adesso, un gruppo di studiosi della Northwestern University di Chicago è andato oltre: ha fornito una valutazione di come sia possibile produrre cosiddetti «abstract» (sommari di articoli di ricerca) capaci di ingannare gli esperti. Al programma veniva richiesto di scrivere 50 di questi brevi testi basandosi su una selezione di altri abstract originati dalla mente umana per riviste di riconosciuta autorevolezza quali Jama, New England of Medicine, The Bmj, The Lancet e Nature Medicine.
Algoritmi come ChatGPT apprendono grazie all’esperienza, proprio come il bambino impara a riconoscere un gatto dopo che i suoi genitori gliel’hanno mostrato più volte. In questo caso viene fornito al computer come dato iniziale un «insieme di addestramento», cioè una serie di abstract, da cui impara la struttura, la terminologia, l’ordine delle informazioni e la sua contestualizzazione. Più l’insieme è ampio più l’algoritmo del programma risulterà efficiente. Il gruppo dell’Università di Chicago ha prima sottoposto gli abstract costruiti da ChatGPT a un altro programma usato da riviste scientifiche per identificare il plagio. Risultato: i testi apparivano originali, caratteristica cruciale nella ricerca. Infine, gli abstract venivano esaminati da differenti revisori, cioè studiosi incaricati di valutare anonimamente la correttezza degli articoli. Questi ultimi hanno identificato come falso solo il 68 per cento dei 50 pseudo-abstract e, di fronte a un analogo campione di articoli genuini scritti da umani, affermavano - erroneamente - che il 14 per cento era generato dall’Ai.
Quindi, ora sappiamo che 32 su 100 articoli prodotti da un’intelligenza artificiale, e potenzialmente contenenti informazioni false sulla medicina e sulla salute, passerebbero indenni il vaglio della peer review (la revisione nell’anonimato di un articolo). Ciò non toglie che al procedere delle ricerche non ci si possa accorgere se un articolo è scritto da un computer, ma certo siamo di fronte a un forte «fattore di disturbo» all’interno del processo scientifico di un tipo finora sconosciuto nella storia umana.
Nella ricerca sarà più difficile distinguere il vero dal falso. Hafteinn Einarsson, ingegnere informatico dell’Università di Reykjavík dice: «Esiste tutta un’area dell’intelligenza artificiale che aiuta i computer a produrre testi perfettamente leggibili. Diversi programmi assistono nella ricerca, io ne uso uno che si chiama GPT-3». crivere meglio una parte di testo, fare un titolo, individuare parole chiave, riassumere un articolo e molto altro. Insomma, mi fa risparmiare tempo e fatica» conclude Einarsson.
Tra gli algoritmi che aiutano gli scienziati si potrebbe citare il cosiddetto AI2, che «ingurgita» un intero articolo di ricerca e poi risponde a differenti domande sul suo contenuto; o l’ACCoRD, capace di generare definizioni e analogie di concetti scientifici.