Gli Stati membri dell’UE hanno dato l’approvazione definitiva alla legislazione UE sull’intelligenza artificiale (AI), una novità mondiale. I legislatori dell’UE avevano raggiunto un accordo provvisorio l’8 dicembre 2023 e il Parlamento europeo ha approvato la legislazione dell’UA il 13 marzo con un’ampia maggioranza.
Come si legge nel comunicato del 21 maggio del Consiglio Ue, lo scopo della legislazione approvata è quello di armonizzare le regole sull'intelligenza artificiale, nonché la promozione, lo sviluppo e l'adozione di sistemi di intelligenza artificiale sicuri e affidabili nel mercato comune dell'Ue da parte dei privati e dei cittadini corpi pubblici. Allo stesso tempo, l’obiettivo è garantire il rispetto dei diritti fondamentali dei cittadini dell’UE e stimolare gli investimenti e l’innovazione nell’intelligenza artificiale in Europa.
Il Ministro belga per la Digitalizzazione, Mathieu Michel, ha dichiarato: “Questa legge storica, la prima del suo genere al mondo, affronta una sfida tecnologica globale che crea anche opportunità per le nostre società ed economie. Con l’AI Act, l’Europa sottolinea l’importanza della fiducia, della trasparenza e della responsabilità quando si tratta di nuove tecnologie, garantendo che questa tecnologia in rapida evoluzione possa prosperare e stimolare l’innovazione europea”.
La nuova legge classifica diversi tipi di intelligenza artificiale in base al rischio. I sistemi di intelligenza artificiale a basso rischio saranno soggetti a obblighi di trasparenza molto leggeri, mentre i sistemi di intelligenza artificiale ad alto rischio saranno consentiti ma soggetti a una serie di requisiti e obblighi di accesso al mercato dell’UE, come la classificazione dei cittadini o i sistemi di sorveglianza di massa e di classificazione sociale implementati in Cina sono vietati dall'UE in quanto il loro rischio è considerato "inaccettabile". La legge vieta inoltre l’uso dell’intelligenza artificiale per attività di polizia basate sulla profilazione predittiva e sistemi che utilizzano dati biometrici per classificare le persone in categorie specifiche come razza, religione o orientamento sessuale.
La legge sull’intelligenza artificiale affronta anche l’uso di modelli di intelligenza artificiale per scopi generali (GPAI). I modelli GPAI che non presentano rischi sistemici saranno soggetti ad alcuni requisiti limitati, ad esempio in termini di trasparenza, ma quelli con rischi sistemici dovranno rispettare regole più severe. Per garantire una corretta attuazione sono stati istituiti diversi organi amministrativi e sono state stabilite clausole penali con sanzioni pecuniarie per le aziende che violano la legge UA. Prima di sviluppare un sistema di intelligenza artificiale ad alto rischio da parte di alcuni enti che forniscono servizi pubblici, dovrebbe essere valutato l’impatto sui diritti fondamentali. Il regolamento prevede inoltre una maggiore trasparenza per quanto riguarda lo sviluppo e l’uso di sistemi di IA ad alto rischio. I sistemi di IA ad alto rischio, così come alcuni utenti di un sistema di IA ad alto rischio che sono enti pubblici, devono essere registrati nella banca dati dell'UE dei sistemi di IA ad alto rischio.
La normativa sarà pubblicata nei prossimi giorni sulla Gazzetta Ufficiale dell'Ue ed entrerà in vigore venti giorni dopo la pubblicazione, tuttavia il nuovo regolamento si applicherà due anni dopo l'entrata in vigore, con alcune eccezioni per disposizioni particolari. L’AI Act è un elemento chiave della politica dell’UE per promuovere lo sviluppo e l’adozione nel mercato unico di un’IA sicura e legale che rispetti i diritti fondamentali.

