La disciplina sul copyright nell’Unione Europea, che è stata incamerata anche nell’AI Act, prevede che le immagini generate attraverso l’intelligenza artificiale debbano avere dei metadati che le possano identificare e rendere quindi riconoscibili rispetto alle immagini originali. Questo, principalmente, per evitare che l’utente possa venire ingannato dai deepfake e cadere nel tranello di prendere per oro colato (e per testimonianza concreta) quello che invece è stato prodotto attraverso un software. Tutto questo, al momento, non è previsto in alcun modo in Grok-2, la versione beta dell’aggiornamento dello strumento di intelligenza artificiale realizzato da Elon Musk. Se si aggiunge che le immagini che vengono create in questo modo non hanno alcun limite (né a livello di copyright, né a livello etico), si può facilmente immaginare quanto possa essere facile cadere nell’inganno di spacciare come originale una immagine realizzata attraverso l’AI di Grok.
LEGGI ANCHE > L’AI di Grok-2 è realmente capace di generare delle immagini da sola?
I ricercatori che hanno effettuato delle indagini dopo la release della versione beta di Grok-2 hanno riscontrato l’assenza di metadati di riconoscimento per i prodotti dell’intelligenza artificiale dell’azienda di Elon Musk. E questo può rappresentare sicuramente un limite per la sua diffusione, soprattutto all’interno dell’Unione Europea, dove il problema è particolarmente evidenziato dalla normativa ad hoc. Per questo motivo, ad esempio, il sito specializzato TechCrunch ha posto a X delle domande in proposito, chiedendo se gli sviluppatori di Grok-2 intenderanno implementare, in futuro, dei sistemi che rendano riconoscibili le immagini create con l’intelligenza artificiale.
Non che ci sia speranza di ottenere una risposta: spesso, su questioni controverse, X ha declinato qualsiasi tipo di commento. In generale, il commissario europeo Thierry Breton aveva già lanciato un monito, espresso attraverso una lettera indirizzata a Elon Musk, rispetto ai rischi che l’assenza di filtri su X (e ora anche su Grok-2) può comportare. E l’assenza di metadati in concomitanza con un realismo molto spinto delle immagini realizzate dalla versione beta del nuovo sistema di intelligenza artificiale può creare un problema, a livello di DSA, sulla diffusione di una corretta informazione in rete.
L'articolo Il “realismo” delle immagini AI di Grok e l’assenza della filigrana proviene da Giornalettismo.