Modulo 05

Autoregolamentazione vs. governance pubblica

Perché affidarsi alla buona volontà delle aziende tech non basta e cosa serve per una governance dell'AI democratica.

8 min3 risorse

"Move fast and break things" — il motto di Facebook per i suoi primi anni — riassume l'atteggiamento dominante della Silicon Valley verso la regolamentazione: l'innovazione viene prima, le regole dopo. Le aziende tech hanno promesso per anni di "autoregolarsi" attraverso principi etici, comitati interni e impegni volontari. Ma la storia dimostra che questa promessa non è stata mantenuta.

Google ha pubblicato i suoi "AI Principles" nel 2018, impegnandosi a non sviluppare AI per armi, sorveglianza o tecnologie che causino danni. Lo stesso anno, firmò il Project Maven con il Pentagono per l'uso dell'AI nell'analisi di immagini di droni militari. Quando i dipendenti protestarono, Google non rinnovò il contratto — ma non per principi etici, bensì per la pressione pubblica. Nel 2020, Google licenziò Timnit Gebru, co-lead del suo team di etica dell'AI, dopo che pubblicò un paper critico verso i modelli linguistici di grandi dimensioni. Il messaggio era chiaro: l'etica interna vale fino a quando non contraddice gli interessi commerciali.

Il problema dell'autoregolamentazione è strutturale, non individuale. Le aziende quotate in borsa hanno un obbligo fiduciario verso gli azionisti di massimizzare il profitto. I dirigenti che rallentano lo sviluppo per ragioni etiche vengono sostituiti da quelli che non lo fanno. Il mercato premia chi arriva primo, non chi arriva in modo responsabile. In questo contesto, i "comitati etici" interni funzionano come strumenti di relazioni pubbliche (ethics washing) più che come meccanismi di governance reale.

La governance pubblica dell'AI non significa che i governi debbano controllare la tecnologia — significa che le regole fondamentali debbano essere stabilite democraticamente, non dalle aziende che profittano della tecnologia. Come non permettiamo alle aziende farmaceutiche di decidere da sole se i loro farmaci sono sicuri, non dovremmo permettere alle aziende AI di decidere da sole se i loro sistemi sono etici.

Una governance pubblica efficace richiede quattro elementi. Primo: autorità indipendenti con competenze tecniche e potere sanzionatorio reale. Secondo: obblighi di trasparenza che permettano la verifica indipendente (non basta pubblicare principi, bisogna permettere audit). Terzo: diritti esigibili per le persone colpite (non solo il diritto di sapere, ma il diritto di contestare e ottenere rimedi). Quarto: finanziamento pubblico della ricerca indipendente sull'AI, per ridurre la dipendenza dalla ricerca aziendale.

Un modello interessante è la governance multi-stakeholder: tavoli dove siedono governo, industria, accademia, società civile e rappresentanti delle comunità colpite. Non è perfetto — il potere è spesso sbilanciato a favore dell'industria — ma è più democratico dell'autoregolamentazione pura.

Concetti chiave

  • L'autoregolamentazione delle aziende tech ha fallito: l'etica interna cede agli interessi commerciali
  • Il problema è strutturale: il mercato premia chi arriva primo, non chi è più responsabile
  • La governance pubblica richiede autorità indipendenti, trasparenza, diritti esigibili e ricerca pubblica
  • La governance multi-stakeholder è più democratica, anche se imperfetta

Spunto di riflessione

Pensi che le aziende tech siano capaci di autoregolarsi sull'AI? Se dovessi progettare un'autorità di governance dell'AI per il tuo paese, chi ci metteresti dentro? Solo tecnici? Anche filosofi, sociologi, rappresentanti dei cittadini?

Per approfondire