Lo scorso 24 novembre l’Italia ha adottato il Programma strategico per l’intelligenza artificiale 2022-2024. Sulla base delle linee europee il governo, attraverso tre ministeri (Università e Ricerca, Sviluppo economico, Innovazione tecnologica e Transizione digitale) e con l’ausilio del già esistente gruppo di lavoro, ha varato un testo che delinea 5 principi guida, 6 obiettivi, 11 settori prioritari, 3 aree di intervento. Una quarantina di pagine dense e accurate.
I principi cardine sono: l’intelligenza artificiale italiana (IA) è un IA europeo (ci si spieghi meglio, magari); polo globale di ricerca e innovazione; l’IA italiana è antropocentrica, affidabile e sostenibile; le aziende diventeranno leader, la pubblica amministrazione governerà l’IA con l’IA.
Il progetto è alquanto ambizioso, se si fa un confronto con gli altri paesi per ciò che riguarda la percentuale nel Pil della spesa in ricerca, il numero di ricercatori o le competenze digitali. Campioni nazionali (cosiddetti) zero, non per caso.
Nella storia è successo di assistere a salti vorticosi di posizioni. Ma, ecco il punto, per immaginare una gara contro arretratezze intrise di vecchia fisiologia dei gruppi dominanti e una burocrazia funzionale al potere politico servirebbe una visione, della quale per ora c’è scarsa traccia.
Intendiamoci. Siamo di fronte ad un testo accurato, non banale come esempi recenti su argomenti contigui.
Il filo conduttore sembra essere l’investimento nell’istruzione (rafforzamento dei dottorati sì, e i restanti livelli visto che a cinque-sei anni già si smanetta e si naviga in rete?). Per rafforzare l’ecosistema italiano, collegando le eccellenze esistenti e le attività territoriali in un unico piano di coordinamento.
Insomma, il dubbio che assale il lettore è che il programma sia pensato per la parte alta e molto alfabetizzata della società, come se l’intelligenza artificiale fosse un surplus per chi ha e sa, e non un capitolo cruciale per il futuro della democrazia, a partire dai suoi modelli cognitivi. Purtroppo, sugli aspetti etici del problema le culture laiche appaiono davvero in affanno, mentre coloro che credono nella trascendenza hanno ben chiaro il tema dei limiti di robot, algoritmi o metadati. Si veda al riguardo un interessante numero speciale della rivista Civiltà cattolica pubblicato proprio un anno fa.
Ci si aspetterebbe un’offerta differenziata di discussione: dalla sequenza delle cifre e degli obiettivi si passi al senso generale di quel mostro chiamato IA. E di mostro si tratta, perché dalla fase delle macchine che copiano il cervello degli umani si è passati alla soglia successiva. Sono gli umani ad essere diretti e sollecitati nei loro desideri più riposti, riconosciuti da software di inaudita forza in grado di plasmare le menti e di dominarle. Fantascienza? No. La realtà, se mai, ha sopravanzato la finzione.
Un capitolo specifico, da solo meritevole di analisi critiche adeguate, è l’ingresso dell’IA nelle redazioni dei giornali o nei processi di produzione culturale come le serie televisive. Ne ha scritto Aldo Fontanarosa nel bel libro Giornalisti robot (2020).
Era lecito, dunque, attendersi almeno una premessa, per inquadrare il testo in un contesto dove si capisce come l’età moderna è proprio conclusa. E dove si vaga in una terra in cui il conflitto sarà via via tra umani e non umani.
Lo scorso 21 aprile la Commissione europea pubblicò una proposta di regolamento sui sistemi di intelligenza artificiale. Un buon materiale, ora alle prese con i difficoltosi itinerari normativi di Bruxelles. L’approccio è condivisibile, definendosi quattro specie di rischi: inaccettabili, alti, limitati o minimi. Per dire, è inaccettabile che si raccolgano dati biometrici per la tutela dell’ordine pubblico o per forme di inquietante sorveglianza di massa.
Non mancano, quindi, spunti autorevoli per orientare la riflessione e ancorare gli obiettivi a criteri valutativi moralmente giusti.
Comunque, è troppo chiedere un dibattito pubblico e partecipato, nazionale e locale, su argomenti che riguardano le vite reali, di tutte e di tutti?