L'IA senza limiti e regole inquina le relazioni umane - Intervista a Guido...
L'IA senza limiti e regole inquina le relazioni umane - Intervista a Guido Scorza
L'IA senza limiti e regole inquina le relazioni umane
Intervista a Guido Scorza, componente del Garante per la protezione dei dati personali
(di Gianmaria Pitton, Giornale di Vicenza, 28 ottobre 2024)
Un uomo intreccia una relazione affettiva con un sistema operativo, un’intelligenza artificiale in grado di porsi come una persona e, soprattutto, di imparare ed evolvere. La sua vita viene completamente condizionata da questo legame, al punto di perdere il contatto con la realtà. È la trama del film “Her” di Spike Jonze, ambientato in un futuro prossimo rispetto al 2013, l’anno di uscita. Un futuro che adesso è il presente. Ne parlerà al Festival biblico tech l’avvocato Guido Scorza, del collegio del Garante per la privacy, nell’incontro in programma sabato 9 novembre alle 15.45 al liceo Quadri.
È un rischio reale quello prefigurato in “Her”?
Sì, e sta accadendo ora: i chatbot sono diventati amici, confidenti, amanti. Qualcuno in giro per il mondo li ha perfino sposati. Condizionano il tessuto relazionale in modo profondo: è recente la notizia di un 14enne morto suicida negli Stati Uniti per una delusione in una relazione con un chatbot. Succede anche agli adulti, un anno fa un ricercatore belga, con moglie e figli, ha intrecciato una relazione con un chatbot ed è arrivato alla stessa conseguenza. Ma la percezione di questo rischio era presente fin dagli albori.
Cioè quando?
Il primo chatbot della storia è stato creato al Mit di Boston nel 1966 da un fisico tedesco emigrato. Si era dato come obiettivo quello di sviluppare un chatbot capace di presentarsi come una persona. Era così convincente che lui stesso, dopo averlo creato, ebbe una specie di pentimento in stile Oppenheimer. Era terrorizzato dal rischio di questa relazione perversa, difficile da controllare, tra uomini e macchine.
Questo chiama in causa responsabilità per i programmatori?
Viviamo in un’epoca in cui tecnologicamente l’impossibile non esiste più. Da gestore di una piattaforma di chatbot, potrei sicuramente identificare dei vincoli tecnico-commerciali tali da precludere un certo tipo di relazione o le sue conseguenze. Se in queste conversazioni la discussione prende una piega preoccupante, tipo istinti suicidi, mi aspetterei che scattassero contromisure piuttosto importanti. Ma in questo momento i chatbot sbarcano sul mercato senza nessun tipo di verifica preventiva, e molti identificano nel chatbot lo psicoterapeuta di riferimento.
Deleghiamo alle macchine decisioni sempre importanti. Andrebbero posti dei limiti?
Esistono sicuramente limiti giuridici. Il principale oggi è la disciplina europea per la protezione dei dati personali, il Gdpr, dove le decisioni automatizzate sono vietate. Esistono alcune eccezioni: la relazione contrattuale ad esempio, quando chiedi un mutuo il primo screening è fatto da un algoritmo. Ma davanti a ciascuna delle eccezioni, la regola comunque resta quella che l’ultima parola tocca all’essere umano.
L’AI Act europeo è all’avanguardia, ma ci sono questioni lasciate in sospeso?
Il limite più grande è rappresentato da una questione di carattere temporale: quando tutto sarà completamente applicabile, nella realtà l’impatto dell’intelligenza artificiale sulla società sarà diverso da come lo conosciamo oggi. Poi c’è il tema di sempre: un conto è fissare il principio, un altro è inoculare il principio dentro il codice.
È esperienza comune il vedersi proporre sui social pubblicità mirata. È una sensazione, o lo smartphone ci spia?
Non è una sensazione, ma una realtà figlia della cosiddetta profilazione o targettizzazione pubblicitaria. Tutti i servizi digitali che utilizziamo ci usano e ci guardano. Mentre faccio una ricerca, viene subito comunicata all’investitore pubblicitario che si preoccupa di farmi arrivare qualcosa che verosimilmente mi interessa. Anche se ne sto solo parlando, senza fare ricerche? Per l’audio, perché questo possa avvenire in una dimensione lecita è necessaria un’autorizzazione specifica. Ma in alcuni casi l’abbiamo data senza saperlo, quando clicchiamo sui termini d’uso e sulle informative per la privacy, spesso senza leggerli.
Garantire la sicurezza prevale sul diritto alla privacy?
Se parliamo del riconoscimento facciale intelligente, c’è il divieto assoluto a farvi ricorso, salvo episodi specifici in cui sia un giudice a ordinarlo. L’AI Act stabilisce per ora che questo tipo di soluzioni algoritmiche presenta un rischio inaccettabile e quindi le vieta. Il diritto alla privacy prevale sull’utilità, ancorché nobile.
Condividi