Blog e News

AI Act: La Normativa Europea sull'Intelligenza Artificiale

MERCOLEDÌ 07 FEBBRAIO 2024 | Lascia un commento
Foto AI Act: La Normativa Europea sull'Intelligenza Artificiale
Scritto da Tatiana Sannio
L'Unione Europea (UE) sta facendo la storia nell'ambito della tecnologia digitale con la prima normativa mondiale sull'Intelligenza Artificiale (IA), conosciuta come AI ACT (Artificial Intelligence Act). Approvata lo scorso 9 dicembre 2023 da Commissione, Consiglio e Parlamento europeo, la normativa in questione è parte integrante della strategia digitale dell'UE, volta a fornire condizioni ottimali per lo sviluppo e l'uso dell'innovativa tecnologia dell'IA. Scopriamo insieme i suoi obiettivi e punti fondamentali.

Obiettivi e benefici dell'IA nell'UE

L'IA è vista come un catalizzatore per molteplici benefici, tra cui miglioramenti nei servizi sanitari, trasporti più sicuri ed ecologici, produzione più efficiente e un'energia più conveniente e sostenibile. Tuttavia, riconoscendo anche i rischi associati, l'UE ha deciso di compiere dei passi più decisi e concreti per la tutela e la protezione dei cittadini membri. 

Quadro Regolamentare dell'UE sull'Intelligenza Artificiale

Il percorso verso la regolamentazione dell'Intelligenza Artificiale (IA) nell'Unione Europea (UE) ha attraversato diverse tappe fondamentali. Vediamole insieme:

Iniziato nel giugno 2018 con la fondazione dell'Alleanza Europea per l'IA e la costituzione del Gruppo di Esperti ad Alto Livello, il processo ha visto il lancio di piani coordinati sull'IA nel dicembre dello stesso anno, seguito da raccomandazioni politiche e di investimento nell'aprile 2019. Nel giugno 2020 e nell'ottobre 2020, valutazioni e la seconda Assemblea dell'Alleanza hanno consolidato l'impegno verso l'eccellenza nell'IA. Aprile 2021 segna una svolta con la proposta di regolamento sull'IA presentata dalla Commissione Europea, seguita da consultazioni pubbliche. Dal dicembre 2021 al giugno 2023, il Consiglio dell'UE ha raggiunto un testo di compromesso e il Parlamento Europeo ha definito la sua posizione negoziale. L'accordo politico raggiunto dai colegislatori nel dicembre 2023 segna un passo significativo verso la regolamentazione dell'IA nell'UE, evidenziando l'impegno crescente delle istituzioni europee verso un utilizzo etico e sicuro di questa tecnologia. Il testo definitivo dell’AI ACT sarà votato dagli organismi europei ed entrerà in vigore tra due anni. 

Il Parlamento Europeo ha definito chiaramente le sue priorità per garantire che i sistemi di IA utilizzati nell'UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell'ambiente. Un punto cruciale è il controllo umano, enfatizzando che la supervisione dei sistemi di IA dovrebbe essere effettuata da persone per evitare eventuali conseguenze dannose. La nuova normativa dovrebbe inoltre garantire un corretto bilanciamento tra innovazione e protezione. Il fondamento principale, come nel caso della GPR, si basa sulla responsabilizzazione e sull'autovalutazione. In pratica, le imprese che sviluppano l'Intelligenza Artificiale dovranno essere in grado di dimostrare che il processo di sviluppo della tecnologia rispetta i diritti fondamentali e non presenta rischi per le persone. In altri termini, ciò implica un'impegno prioritario nella normativa per garantire la tutela dell'integrità e dei diritti individuali.


Differenziazione normativa risk-based

Il progetto di legge sull'IA è il primo tentativo di introdurre una regolamentazione orizzontale per l'IA.Il quadro legale proposto si concentra sull'utilizzo specifico dei sistemi di IA e sui rischi associati. La Commissione propone di stabilire una definizione tecnologicamente neutra dei sistemi di IA nella legge dell'UE. Inoltre, stila una classificazione per i sistemi di IA con requisiti e obblighi differenziati in base al livello di rischio. 

La nuova regolamentazione prevede infatti i seguenti livelli di rischio: 

  • Rischio Inaccettabile

I sistemi di IA considerati a rischio inaccettabile sono vietati quando costituiscono una minaccia per le persone. Questi includono la manipolazione comportamentale cognitiva, la classificazione sociale e l'identificazione biometrica. Tuttavia, ci sono eccezioni limitate per l'applicazione della legge.

  • Alto rischio

I sistemi di IA che influiscono negativamente sulla sicurezza o sui diritti fondamentali sono considerati ad alto rischio. Questi sistemi sono suddivisi in due categorie e devono essere registrati in un database dell'UE. Una valutazione approfondita è richiesta prima che tali sistemi vengano messi sul mercato.

  • Rischio limitato

I sistemi di IA a rischio limitato devono rispettare requisiti minimi di trasparenza per consentire agli utenti di prendere decisioni informate.

Requisiti per l'IA Generativa

L'IA generativa, come ChatGPT, dovrà rispettare requisiti di trasparenza, inclusa la divulgazione che il contenuto è stato generato da un'intelligenza artificiale. Modelli di IA ad alto impatto generale saranno sottoposti a valutazioni approfondite per prevenire rischi sistemici.

Conclusioni

Attraverso un approccio basato sul rischio e il chiaro impegno per la tutela dei diritti fondamentali, l'UE sta plasmando un futuro in cui l'Intelligenza Artificiale (IA) continuerà ad essere un motore di progresso sociale ed economico senza compromettere la sicurezza e la dignità individuale. Come si è visto, l'iter di questa regolamentazione è stato segnato da consultazioni approfondite, valutazioni critiche e compromessi ponderati, evidenziando l'importanza che le istituzioni europee attribuiscono a un’adozioneconsapevole e responsabile dell'IA.

E tu, sei a favore di questa nuova regolamentazione sull'uso dell'AI? Seguici per rimanere sempre aggiornato sulle tematiche più attuali e sulle ultime news dal mondo del lavoro!

 

 

 

 

 

 

 



LinkedIn
Whatsapp
LASCIA UN COMMENTO
Acconsento al trattamento dei miei dati personali in conformità alle vigenti norme sulla privacy. Dichiaro di aver letto e accettato l'informativa sulla privacy
INVIA COMMENTO