Innovazione o sperimentazione: quale delle due ha la priorità? La domanda sorge praticamente spontanea, quando di parla dell’intelligenza artificiale e delle sue modalità di applicazione.
Mentre in tutto il mondo si sperimentano le potenzialità – apparentemente infinite – delle nuove tecnologie, l’Europa compie un passo avanti per l’approvazione dell’AI Act, una proposta di legge che regolamenta l’uso dell’intelligenza artificiale e che avrà un impatto pari (se non superiore) a quello del GDPR.
Come fare, dunque, a coniugare le necessità di mantenersi al passo coi tempi e proteggere i dati personali? L’Europa e, dunque, l’Italia rischiano di rimanere indietro? Procediamo con ordine e cerchiamo di comprendere meglio a che punto è la legislazione europea.
Cosa è l’AI Act?
Nei giorni scorsi il Parlamento Europeo ha approvato il testo di una proposta di legge, nota appunto come AI Act, creata allo scopo di regolamentare sviluppo e uso dell’intelligenza artificiale nei suoi Paesi membri. L’argomento non è esattamente recente, considerato che l’UE è al lavoro sul documento da almeno due anni.
A dare una spinta al lavoro delle commissioni per il Mercato Interno e per le Libertà Civili, ha certamente contribuito la sempre maggiore diffusione di ChatGPT e altre AI Generative, che creano scritti e immagini proprio come farebbe un essere umano.
In seguito alla revisione del testo, sono stati introdotti alcuni divieti più rigidi, come quello che riguarda “l’immissione sul mercato o l’utilizzo di sistemi di intelligenza artificiale che possano creare, o espandere, database per il riconoscimento facciale attraverso la raccolta di immagini non mirata di volti da Internet o da filmati Cctv“. Questo è un esempio di ciò che si legge sull’AI Act in merito alle pratiche di intelligenza artificiale che “dovrebbero essere proibite“.
Tra le novità principali, ci sono soprattutto i divieti connessi agli usi “intrusivi” dei sistemi di IA connessi alla biometria. Tra gli scopi della normativa, quello di evitare che si giunga a scenari da “Grande Fratello”, potenziati dall’uso dell’intelligenza artificiale e dal riconoscimento facciale.
Per quanto riguarda invece i modelli di AI generativi (come ChatGPT o Bard), è stata richiesta una maggiore trasparenza, ad esempio attraverso la dichiarazione che un determinato contenuto è stato generato “artificialmente”.
Le commissioni parlamentari per le Libertà civili e il Mercato interno hanno adottato congiuntamente il testo a larga maggioranza. Adesso il passo successivo è l’adozione in plenaria, con il 14 giugno 2023 fissato come data provvisoria.
Quando gli eurodeputati avranno formalizzato la loro posizione, la proposta entrerà nell’ultima fase del processo legislativo e inizieranno i cosiddetti triloghi, cioè i negoziati con il Consiglio e la Commissione dell’UE.
Quali scenari per il futuro?
Bastano queste prime informazioni per comprendere quanto sia importante il tema della protezione dei dati personali. Gli esperti stimano che l’AI Act avrà una portata non inferiore al GDPR. Al di là dei progressi legislativi, è interessante tornare sulle domande che abbiamo posto all’inizio: qual è il giusto equilibrio tra innovazione e regolamentazione?
Dalle pagine di Repubblica, Filippo Luna cita, a tal proposito, un episodio non da poco. Quando Google ha annunciato il futuro radioso dell’intelligenza artificiale, inserita nel motore di ricerca più famoso (ma anche nelle email, nelle mappe e nello shopping online), le nuove funzionalità sono diventate subito disponibili in ben 180 Paesi, ma non nell’Unione Europea né in Canada.
Perché è successo? Attraverso una nota, il colosso di Mountain View ha spiegato che Bard, il chatbot di intelligenza artificiale generativa di Google, dialogherà prossimamente nelle 40 principali lingue del mondo, compreso l’italiano, ma che non c’è ancora un piano di espansione. “Cresceremo gradualmente e responsabilmente dialogando con i regolatori mentre sviluppiamo assieme queste nuove tecnologie”, spiegano dall’azienda. In quel dialogo “con i regolatori” c’è la chiave di tutto.
C’è un’altra vicenda che è opportuno citare. Nel mese di marzo del 2023, il Garante per la Protezione dei Dati Personali ha disposto in Italia il blocco temporaneo per l’uso di ChatGPT. Il motivo? Lacune nella disciplina della privacy.
OpenAI (la startup che ha sviluppato il chatbot) ha fatto seguito alle richieste del Garante italiano, introducendo nuove funzioni per la privacy per tutti gli utenti a livello mondiale e il servizio è tornato disponibile nel giro di circa un mese. Dietro le richieste della nostra autorità nazionale, le regole del GPRD. Non è dunque da escludere che anche Google abbia avuto qualche reticenza proprio per non incappare in violazioni legate all’utilizzo dei dati personali.
Che le regole servano è fuori di dubbio oggi più che mai e soprattutto quando si parla dell’universo digitale. Rimane, però, quel dilemma di cui sopra (e non basta chiedere a un chatbot per avere una risposta davvero valida): possono le regole essere un freno per l’innovazione?