Nel novembre 2022, OpenAI ha rilasciato ChatGPT e il mondo non è stato più lo stesso — o almeno, così racconta la narrativa dominante. In realtà, i modelli linguistici di grandi dimensioni (LLM) esistevano da anni, e le tecniche alla base (i transformer, introdotti da Google nel 2017) non erano nuove. Ciò che era nuovo era l'accessibilità: per la prima volta, chiunque poteva conversare con un modello linguistico attraverso un'interfaccia semplice.
Ma come funziona concretamente un LLM? In modo semplificato: è un modello che, data una sequenza di parole, prevede la parola successiva più probabile. Lo fa perché è stato addestrato su enormi quantità di testo — libri, articoli, siti web, forum, codice sorgente — e ha "interiorizzato" i pattern statistici del linguaggio umano. Quando genera una risposta, non "ragiona": calcola, parola dopo parola, la continuazione più probabile della conversazione.
Questo meccanismo produce risultati che sembrano magici — testi coerenti, traduzioni fluide, riassunti efficaci — ma ha limiti intrinseci. Il più famoso sono le "allucinazioni": il modello produce informazioni false ma plausibili con la stessa sicurezza con cui produce fatti veri. Non è un bug: è una conseguenza diretta del modo in cui funziona. Il modello non distingue tra vero e falso — produce ciò che è statisticamente probabile nel contesto.
Emily Bender e Timnit Gebru hanno coniato l'espressione "stochastic parrots" — pappagalli stocastici — per descrivere questi modelli. Come un pappagallo che ripete frasi senza capirle, un LLM produce testo che sembra significativo senza avere alcuna comprensione del significato. Questo non vuol dire che non sia utile — significa che dobbiamo usarlo consapevolmente, sapendo cosa può e cosa non può fare.
L'AI generativa non si limita al testo: produce immagini (DALL-E, Midjourney, Stable Diffusion), musica, video, codice. In tutti questi domini, il principio è lo stesso: un modello addestrato su enormi quantità di dati genera nuovi output statisticamente coerenti con quei dati. E in tutti questi domini, emergono le stesse domande: chi possiede i dati di addestramento? Chi beneficia degli output? Chi viene danneggiato?
Un aspetto spesso trascurato è il rapporto tra AI generativa e lavoro creativo. Questi modelli sono addestrati sul lavoro di milioni di artisti, scrittori e programmatori — spesso senza il loro consenso e senza compenso. Quando un'AI "nello stile di" un artista genera un'immagine, sta estraendo valore da quel lavoro creativo. La domanda non è solo tecnica, è politica: chi ha il diritto di usare e monetizzare il lavoro altrui?