L’Eurocamera ha dato il via libera all’AiAct, il regolamento dell’Unione Europea sull’Intelligenza Artificiale.
Il testo contenente le nuove disposizioni è stato approvato a Strasburgo con 499 voti a favore, 28 contrari e 93 astenuti. Si tratta del primo documento al mondo creato per garantire che tecnologie come Chat GPT rispettino le leggi dell’UE e i valori fondamentali, combattendo la discriminazione digitale e prevenendo la disinformazione e l’uso dei “deep fakes”. Il voto apre la strada per le discussioni con gli Stati membri e la Commissione Europea.
livelli di rischio
La Commissione ha identificato quattro livelli di rischio delle applicazioni. Rischio inaccettabile: quei sistemi che violano i valori europei non saranno utilizzabili all’interno dei confini dell’Unione.
Rischio alto: quei sistemi che stanno avendo un impatto controverso sulla sicurezza e sui diritti delle persone. Qui l’Ue non ne proibisce la diffusione ma chiede che si risponda a una precisa serie di requisiti.
Rischio limitato: quei sistemi che non comportano pericoli considerevoli e che dunque dovranno assicurare un set limitato di requisiti (in primis la trasparenza, dunque rivelare in modo evidente l’utilizzo dell’intelligenza artificiale).
Rischio minimo: in questo caso non è previsto nessun obbligo legale.
No riconoscimento facciale
L’Europarlamento sancisce il divieto totale di utilizzo di tecnologie di riconoscimento biometrico a intelligenza artificiale in tempo reale nei luoghi pubblici. È stato infatti bocciato l’emendamento presentato dal Ppe che chiedeva di inserire nel testo alcune eccezioni per permettere l’uso di telecamere a riconoscimento facciale nelle strade e ai confini dell’Ue per motivi di sicurezza nazionale o nei casi di minori scomparsi.
Le altre applicazioni vietate
Tra le applicazioni vietate dell’intelligenza artificiale (rientrano nel livello di rischio inaccettabile) ci sono i sistemi di “social scoring” (già utilizzati in Cina), che giudicano le persone in base ai propri comportamenti. Il regolamento bandisce poi gli strumenti di polizia predittiva, che sfrutta i dati per capire in anticipo la pericolosità di un individuo (e che sono utilizzati già negli Stati Uniti). Un altro esempio sono i sistemi che targettizzano utenti considerati vulnerabili (come i bambini). L’Ai act vieta anche la manipolazione subliminale che può causare danni, come ad esempio un giocattolo interattivo che incoraggia a comportamenti pericolosi.
Le sanzioni
Nel regolamento sono già previste delle sanzioni per chi dovesse diffondere una applicazione proibita o non soddisfare i requisiti richiesti per le applicazioni con rischio alto. Le violazioni prevedono multe severe, fino a 30 milioni di euro o pari al sei per cento di fatturato annuo dell’azienda. Nel caso di colossi come Microsoft, Meta o Google, potrebbe significare una sanzione di miliardi.
Breton: conciliare fiducia e innovazione
“Siamo stati la prima Camera al mondo a votare su un regolamento complessivo sull’Intelligenza artificiale – ha commentato su Twitter il commissario Ue al Mercato interno, Thierry Breton -. Questo voto dimostra che possiamo conciliare fiducia e innovazione”.