L'IA è vista come un catalizzatore per molteplici benefici, tra cui miglioramenti nei servizi sanitari, trasporti più sicuri ed ecologici, produzione più efficiente e un'energia più conveniente e sostenibile. Tuttavia, riconoscendo anche i rischi associati, l'UE ha deciso di compiere dei passi più decisi e concreti per la tutela e la protezione dei cittadini membri.
Il percorso verso la regolamentazione dell'Intelligenza Artificiale (IA) nell'Unione Europea (UE) ha attraversato diverse tappe fondamentali. Vediamole insieme:
Iniziato nel giugno 2018 con la fondazione dell'Alleanza Europea per l'IA e la costituzione del Gruppo di Esperti ad Alto Livello, il processo ha visto il lancio di piani coordinati sull'IA nel dicembre dello stesso anno, seguito da raccomandazioni politiche e di investimento nell'aprile 2019. Nel giugno 2020 e nell'ottobre 2020, valutazioni e la seconda Assemblea dell'Alleanza hanno consolidato l'impegno verso l'eccellenza nell'IA. Aprile 2021 segna una svolta con la proposta di regolamento sull'IA presentata dalla Commissione Europea, seguita da consultazioni pubbliche. Dal dicembre 2021 al giugno 2023, il Consiglio dell'UE ha raggiunto un testo di compromesso e il Parlamento Europeo ha definito la sua posizione negoziale. L'accordo politico raggiunto dai colegislatori nel dicembre 2023 segna un passo significativo verso la regolamentazione dell'IA nell'UE, evidenziando l'impegno crescente delle istituzioni europee verso un utilizzo etico e sicuro di questa tecnologia. Il testo definitivo dell’AI ACT sarà votato dagli organismi europei ed entrerà in vigore tra due anni.
Il Parlamento Europeo ha definito chiaramente le sue priorità per garantire che i sistemi di IA utilizzati nell'UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell'ambiente. Un punto cruciale è il controllo umano, enfatizzando che la supervisione dei sistemi di IA dovrebbe essere effettuata da persone per evitare eventuali conseguenze dannose. La nuova normativa dovrebbe inoltre garantire un corretto bilanciamento tra innovazione e protezione. Il fondamento principale, come nel caso della GPR, si basa sulla responsabilizzazione e sull'autovalutazione. In pratica, le imprese che sviluppano l'Intelligenza Artificiale dovranno essere in grado di dimostrare che il processo di sviluppo della tecnologia rispetta i diritti fondamentali e non presenta rischi per le persone. In altri termini, ciò implica un'impegno prioritario nella normativa per garantire la tutela dell'integrità e dei diritti individuali.
Il progetto di legge sull'IA è il primo tentativo di introdurre una regolamentazione orizzontale per l'IA.Il quadro legale proposto si concentra sull'utilizzo specifico dei sistemi di IA e sui rischi associati. La Commissione propone di stabilire una definizione tecnologicamente neutra dei sistemi di IA nella legge dell'UE. Inoltre, stila una classificazione per i sistemi di IA con requisiti e obblighi differenziati in base al livello di rischio.
La nuova regolamentazione prevede infatti i seguenti livelli di rischio:
I sistemi di IA considerati a rischio inaccettabile sono vietati quando costituiscono una minaccia per le persone. Questi includono la manipolazione comportamentale cognitiva, la classificazione sociale e l'identificazione biometrica. Tuttavia, ci sono eccezioni limitate per l'applicazione della legge.
I sistemi di IA che influiscono negativamente sulla sicurezza o sui diritti fondamentali sono considerati ad alto rischio. Questi sistemi sono suddivisi in due categorie e devono essere registrati in un database dell'UE. Una valutazione approfondita è richiesta prima che tali sistemi vengano messi sul mercato.
I sistemi di IA a rischio limitato devono rispettare requisiti minimi di trasparenza per consentire agli utenti di prendere decisioni informate.
L'IA generativa, come ChatGPT, dovrà rispettare requisiti di trasparenza, inclusa la divulgazione che il contenuto è stato generato da un'intelligenza artificiale. Modelli di IA ad alto impatto generale saranno sottoposti a valutazioni approfondite per prevenire rischi sistemici.
Attraverso un approccio basato sul rischio e il chiaro impegno per la tutela dei diritti fondamentali, l'UE sta plasmando un futuro in cui l'Intelligenza Artificiale (IA) continuerà ad essere un motore di progresso sociale ed economico senza compromettere la sicurezza e la dignità individuale. Come si è visto, l'iter di questa regolamentazione è stato segnato da consultazioni approfondite, valutazioni critiche e compromessi ponderati, evidenziando l'importanza che le istituzioni europee attribuiscono a un’adozioneconsapevole e responsabile dell'IA.
E tu, sei a favore di questa nuova regolamentazione sull'uso dell'AI? Seguici per rimanere sempre aggiornato sulle tematiche più attuali e sulle ultime news dal mondo del lavoro!