g-docweb-display Portlet

Scorza: AI Act è a rischio, ecco le regole che servono - Intervento di Guido Scorza

Stampa Stampa Stampa
PDF Trasforma contenuto in PDF

Scorza: AI Act è a rischio, ecco le regole che servono
Intervento di Guido Scorza, componente del Garante per la protezione dei dati personali
(AgendaDigitale, 4 dicembre 2023)

L’AI Act è in bilico. Rischia di ricevere regole light o persino di non essere approvato. Serve invece una regolamentazione forte e che esca dalle Istituzioni europee, ovviamente bilanciata. Non c’è nessun antagonismo tra diritto a innovare, a fare impresa e altri diritti fondamentali. Ecco gli auspicata

Le prossime quarantott’ore ore saranno determinanti, forse decisive, per l’approvazione – o, purtroppo, per la non approvazione – dell’AI Act, il Regolamento europeo che ambisce a governare l’intelligenza artificiale nei diversi Paesi dell’Unione non sostituendosi alle altre discipline già esistenti – la disciplina sulla privacy, quella sulla concorrenza e la tutela dei consumatori, quella in materia di diritto d’autore – ma affiancandovisi e integrandole.

Come spesso accade, le ultime, sono le ore più importanti, quelle in cui i nodi vengono al pettine, le distanze tra le diverse posizioni si presentano come incolmabili pur senza esserlo davvero, i dettagli, nei quali si nasconde il famoso diavolo, minacciano di far saltare il banco.

Ed è proprio per questo che le ultime sono anche le ore nelle quali servono più nervi saldi, più buon senso, più capacità di anteporre l’interesse comune a quelli di parte e egoistici.

AI ACT, cosa c’è in gioco in Europa

E in questo caso è più importante di sempre perché in gioco c’è una delle materie più complesse, delicate e, soprattutto, di maggior impatto sulla società nella quale viviamo.

Non in quella di domani ma, guai a dimenticarlo, in quella di oggi.

Siamo già inesorabilmente in ritardo nel provare a governare qualcosa che è largamente già accaduto ma far saltare il banco, non riuscire a raggiungere un accordo e mancare l’obiettivo di approvare il regolamento prima della fine della legislatura europea vanificherebbe gli sforzi sin qui fatti e condannerebbe l’Europa a restare senza regole sull’intelligenza artificiale ancora per anni.

E se questo accadesse significherebbe lasciare che le regole le imponga la tecnologia che, qui vale la pena ricordarlo, come diceva Stefano Rodotà, è essa stessa una forma di regolamentazione e plasma la vita delle persone, delle amministrazioni e della società nel suo complesso più di quanto facciano le regole che escono da Parlamenti e Governi, molto spesso anche sovrascrivendo queste ultime.

AI Act, le regole non bloccano l’industria europea

In proposito, a leggere le cronache delle battute finali del trilogo in corso a Bruxelles a proposito dell’AI Act pare esserci un enorme equivoco: sembra che in tanti suggeriscano che vi sia il rischio che le regole eventualmente approvare dalle Istituzioni europee potrebbero bloccare i mercati, zavorrare l’industria di casa nostra a tutto vantaggio dei concorrenti extra-europei e/o ostacolare il progresso.

Una posizione – chiunque sia chi la sostiene o, forse, meglio, chi la ispira – completamente priva di senso e significato.

Innanzitutto, perché “bloccare” i mercati o ostacolare il progresso non sono gli obbiettivi né gli effetti di nessuna buona regolamentazione ed è difficile, a navigare nella storia, trovare esempi di mercati soffocati dalla regolamentazione.

Le regole, al contrario, servono a garantire diritti o libertà.

Inclusi i diritti e le libertà di chi fa impresa e business, a cominciare dalla libertà di concorrenza senza la quale parlare di mercato sembra completamente inutile.

E sarebbe un errore dire di no a una regolamentazione seria dell’intelligenza artificiale preoccupati del fatto che possano scriversi le regole sbagliate perché significherebbe scegliere un approccio metodologico – regolamentazione o non regolamentazione o, il che fa lo stesso, auto-regolamentazione lasciata al mercato – non su base scientifica ma muovendo da una patologia, da talune derive che indiscutibilmente in passato ci sono state, da ciò che è andato storto in altri processi di regolamentazione.

Ma non basta.

Il fallimento dell’AI sarebbe gravissimo

Nel caso dell’AI, infatti, il rischio di non intervenire e di lasciar, così, fare ai mercati è ancora più grave per due ragioni.

La prima è che l’impatto dell’AI sulla società – ovvero il fenomeno che andrebbe governato con l’AI Act – riguarda largamente diritti e libertà fondamentali con la conseguenza che l’autoregolamentazione non è, per definizione, una opzione alla quale guardare non fosse altro che perché, difficilmente, in questa forma di regolamentazione la società civile, le persone, i portatori di diritti e interessi diversi da quelli dell’industry direttamente coinvolta nella regolamentazione contano quanto dovrebbe.

La seconda è che, nel caso di specie, il mercato che dovrebbe auto-regolamentarsi è un mercato asfittico, anelastico, oligopolistico e non concorrenziale nel quale, come se non bastasse, a far da padroni sono un manipolo di società extra-europee.

Lasciare spazio all’autoregolamentazione su una serie di questioni centrali come quella dei modelli fondanti, significherebbe, quindi, lasciare che pochi – e, anzi, pochissimi – scrivano e poi impongano le loro regole a tanti e, anzi tantissimi al di fuori di qualsiasi dinamica democratica.

Un rischio non solo democraticamente ma anche commercialmente insostenibile per la nostra Europa già ridotta a colonia digitale altrui.

E c’è anche di più.

L’incertezza giuridica diffusa a proposito di una serie di questioni cruciali in materia di intelligenza artificiale – dal diritto d’autore alla privacy passando per l’identificazione della responsabilità per gli errori ascrivibili agli algoritmi – sta rallentando l’adozione dell’AI nelle imprese europee più di quanto, nel peggior scenario possibile, farebbe la regolamentazione che potrebbe essere varata con l’AI Act.

Serve una regolamentazione forte

Serve, dunque, una regolamentazione forte e che esca dalle Istituzioni europee, ovviamente bilanciata e capace di dimostrare una volta di più che non esiste e non può esistere nessun antagonismo tra diritto a innovare – e, più in generale – a fare impresa e altri diritti fondamentali anche perché tra diritti fondamentali non esistono diritti tiranni e ogni diritto può e deve sempre essere compresso nella misura minima necessaria a garantire l’esercizio dell’altro.

Ma il bivio tra regolamentazione, non regolamentazione e autoregolamentazione non è l’unico tema a proposito del quale nella c’è da augurarsi che alla fine prevalga il buon senso.

Serve tanto buon senso anche nell’identificazione delle istituzioni nazionali alle quali affidare il compito di garantire il rispetto delle regole europee.

Un’agenzia per l’IA sotto il Governo: non va bene

Qui tra tanti scenari possibili, ce n’è uno che non bisognerebbe lasciare si verificasse: che questo compito fosse affidato a un’agenzia alle dipendenze del Governo.

La vigilanza sull’applicazione delle regole che auspicabilmente verranno approvate a Bruxelles deve necessariamente toccare a un’Autorità indipendente posta nelle condizioni di agire in assoluta autonomia dai Governi nazionali.

Questo per una ragione semplicissima: molte delle regole europee in discussione servono a limitare o a orientare l’uso dell’intelligenza artificiale da parte proprio dei Governi nazionali.

Basti pensare a tutto il capitolo sulla sorveglianza intelligente, a quello sul law enforcement, sulla polizia predittiva, sull’uso degli algoritmi in sanità o nella giustizia.

In tutti questi casi sembra evidente che qualora dovesse toccare a un’agenzia governativa occuparsi dell’applicazione delle regole si verrebbe a trovare in una condizione di sistematico conflitto di interessi.

Poi, per carità, la differenza la fanno sempre le persone e, quindi, potrebbe accadere che un’agenzia, con le persone giuste, fosse più capace di un’Autorità di agire in maniera indipendente.

Ma, naturalmente, le regole si scrivono perché funzionino a prescindere dalle persone.

Benissimo, quindi, affidare a ogni genere di Agenzia di governo il compito di promuovere e, eventualmente, regolamentare a livello secondario, l’intelligenza artificiale ma no all’idea di un’agenzia che sia responsabile anche dell’enforcement delle nuove regole perché una scelta del genere frustrerebbe completamente buona parte degli obiettivi perseguiti con il Regolamento.

Mai come in queste ore, in questa vicenda, insomma, serve davvero tanto buon senso e rispetto per i diritti, le libertà e la democrazia.

Scheda

Doc-Web
9960565
Data
04/12/23

Argomenti


Tipologie

Interviste e interventi