Regolamento Ue sull'Intelligenza Artificiale: quali sono i rischi e cosa sarà vietato
Top

Regolamento Ue sull'Intelligenza Artificiale: quali sono i rischi e cosa sarà vietato

Il testo contenente le nuove disposizioni è stato approvato a Strasburgo con 499 voti a favore, 28 contrari e 93 astenuti. Si tratta del primo documento al mondo creato per garantire che tecnologie come Chat GPT rispettino le leggi dell'UE

Regolamento Ue sull'Intelligenza Artificiale: quali sono i rischi e cosa sarà vietato
Intelligenza artificiale
Preroll

globalist Modifica articolo

14 Giugno 2023 - 16.44


ATF

L’Eurocamera ha dato il via libera all’AiAct, il regolamento dell’Unione Europea sull’Intelligenza Artificiale.

Il testo contenente le nuove disposizioni è stato approvato a Strasburgo con 499 voti a favore, 28 contrari e 93 astenuti. Si tratta del primo documento al mondo creato per garantire che tecnologie come Chat GPT rispettino le leggi dell’UE e i valori fondamentali, combattendo la discriminazione digitale e prevenendo la disinformazione e l’uso dei “deep fakes”. Il voto apre la strada per le discussioni con gli Stati membri e la Commissione Europea.

livelli di rischio

 La Commissione ha identificato quattro livelli di rischio delle applicazioni. Rischio inaccettabile: quei sistemi che violano i valori europei non saranno utilizzabili all’interno dei confini dell’Unione. 
Rischio alto: quei sistemi che stanno avendo un impatto controverso sulla sicurezza e sui diritti delle persone. Qui l’Ue non ne proibisce la diffusione ma chiede che si risponda a una precisa serie di requisiti. 
Rischio limitato: quei sistemi che non comportano pericoli considerevoli e che dunque dovranno assicurare un set limitato di requisiti (in primis la trasparenza, dunque rivelare in modo evidente l’utilizzo dell’intelligenza artificiale).
Rischio minimo: in questo caso non è previsto nessun obbligo legale.

Leggi anche:  Stato di diritto e libertà di stampa: la Ue 'tira le orecchie' al governo Meloni

No riconoscimento facciale

 L’Europarlamento sancisce il divieto totale di utilizzo di tecnologie di riconoscimento biometrico a intelligenza artificiale in tempo reale nei luoghi pubblici. È stato infatti bocciato l’emendamento presentato dal Ppe che chiedeva di inserire nel testo alcune eccezioni per permettere l’uso di telecamere a riconoscimento facciale nelle strade e ai confini dell’Ue per motivi di sicurezza nazionale o nei casi di minori scomparsi. 

Le altre applicazioni vietate

 Tra le applicazioni vietate dell’intelligenza artificiale (rientrano nel livello di rischio inaccettabile) ci sono i sistemi di “social scoring” (già utilizzati in Cina), che giudicano le persone in base ai propri comportamenti. Il regolamento bandisce poi gli strumenti di polizia predittiva, che sfrutta i dati per capire in anticipo la pericolosità di un individuo (e che sono utilizzati già negli Stati Uniti). Un altro esempio sono i sistemi che targettizzano utenti considerati vulnerabili (come i bambini). L’Ai act vieta anche la manipolazione subliminale che può causare danni, come ad esempio un giocattolo interattivo che incoraggia a comportamenti pericolosi. 

Leggi anche:  OpenAI svela SearchGPT, il futuro della ricerca online basata sull'Intelligenza Artificiale

Le sanzioni

 Nel regolamento sono già previste delle sanzioni per chi dovesse diffondere una applicazione proibita o non soddisfare i requisiti richiesti per le applicazioni con rischio alto. Le violazioni prevedono multe severe, fino a 30 milioni di euro o pari al sei per cento di fatturato annuo dell’azienda. Nel caso di colossi come Microsoft, Meta o Google, potrebbe significare una sanzione di miliardi.

Breton: conciliare fiducia e innovazione

 “Siamo stati la prima Camera al mondo a votare su un regolamento complessivo sull’Intelligenza artificiale – ha commentato su Twitter il commissario Ue al Mercato interno, Thierry Breton -. Questo voto dimostra che possiamo conciliare fiducia e innovazione”. 

Native

Articoli correlati