Uno dei rischi più gravi dell'AI contemporanea è la concentrazione: poche corporation controllano i modelli più potenti, i dataset più grandi e l'infrastruttura necessaria per addestrarli. Google, Microsoft, Meta e OpenAI hanno un vantaggio strutturale che si auto-rinforza: più dati producono modelli migliori, modelli migliori attraggono più utenti, più utenti generano più dati. In questo contesto, l'AI open source non è solo una preferenza tecnica — è una necessità democratica.
L'AI open source significa che il codice sorgente dei modelli, i pesi addestrati e — idealmente — i dati di addestramento sono pubblicamente disponibili. Chiunque può ispezionare come funziona il modello, verificarne i bias, adattarlo alle proprie esigenze, migliorarlo. Meta ha rilasciato Llama, Stability AI ha rilasciato Stable Diffusion, Mistral AI ha rilasciato modelli competitivi con quelli proprietari. Questi rilasci hanno democratizzato l'accesso alla tecnologia e accelerato l'innovazione.
Ma "open source" non significa automaticamente "per il bene comune". Un modello open source può essere usato per creare deepfake, produrre disinformazione o potenziare sistemi di sorveglianza. La questione non è solo l'accessibilità del codice, ma la governance: chi decide come viene usato, chi è responsabile dei danni, come si bilancia apertura e sicurezza.
Il concetto di "beni comuni digitali" (digital commons) offre un framework più ampio. I beni comuni non sono né proprietà privata né proprietà statale: sono risorse gestite collettivamente da una comunità secondo regole condivise. Wikipedia è un bene comune digitale: chiunque può contribuire, ma le regole della comunità (neutralità, verificabilità, consenso) ne garantiscono la qualità. OpenStreetMap è un altro: una mappa del mondo creata e mantenuta da volontari, alternativa a Google Maps.
Applicare il modello dei beni comuni all'AI significa creare modelli, dataset e infrastrutture che siano di proprietà collettiva, governati democraticamente e orientati al beneficio pubblico. BLOOM, un modello linguistico multilingue sviluppato da BigScience — un consorzio di oltre 1.000 ricercatori — è un esempio: è stato creato con un processo decisionale partecipativo su scelte etiche e tecniche. EleutherAI è un collettivo di ricercatori che sviluppa modelli linguistici aperti e documenta pubblicamente le proprie scelte.
I dati stessi possono essere beni comuni. I "data trusts" — strutture legali che gestiscono dati per conto di una comunità, come un trust gestisce patrimoni — sono un modello promettente. Invece di cedere i nostri dati alle corporation, potremmo conferirli a trust governati democraticamente, che ne negozino l'uso nell'interesse dei contribuenti. È un'idea ancora sperimentale, ma potrebbe trasformare radicalmente il rapporto tra cittadini e dati.