AI Act: cos’è e a che punto siamo

L’AI Act è una proposta di regolamento della Commissione Europea  – presentata nel 2021 e aggiornata nel 2024 – che mira a creare un quadro normativo per l’intelligenza artificiale, con l’obiettivo di garantirne un uso sicuro e responsabile, proteggendo i diritti dei cittadini e favorendo al contempo l’innovazione.

Sebbene la sua totale e definitiva adozione richieda ancora tempo, è fondamentale comprendere di cosa si tratta e quali potrebbero essere le sue ripercussioni sulla nostra vita quotidiana. 

L’AI Act si configura infatti come una delle iniziative più ambiziose in termini di regolamentazione dell’intelligenza artificiale. Coinvolgendo diverse istituzioni europee, il processo legislativo si è rivelato decisamente complesso e ha dato vita a un ampio dibattito e negoziato; vediamo alcuni punti che lo stanno alimentando: 

  • Disaccordi tra le istituzioni

Come anticipato, al momento l’AI Act non è ancora legge, l’applicazione delle norme dell’AI Act ha un orizzonte molto ampio  in quanto in fase di negoziazione tra le istituzioni europee, ciascuna con i propri obiettivi e target da difendere. Le principali istituzioni coinvolte sono la Commissione Europea (proponente della legge), il Parlamento Europeo (che rappresenta i cittadini UE e analizza gli impatti sociali ed economici) e il Consiglio dell’Unione Europea (che rappresenta i governi degli Stati membri). Il processo di negoziazione dovrà giungere a un accordo sul testo finale, bilanciando le varie opinioni in merito a innovazione, protezione dei dati e sicurezza.

  • Complesso scenario tecnico e impatti trasversali

È cruciale ricordare che il campo dell’IA è in continua evoluzione e altamente complesso. Ogni settore deve essere valutato con attenzione per evitare effetti collaterali o rischi per la privacy individuale e per i diritti collettivi.

  • Bilanciamento tra innovazione e sicurezza

Uno degli interrogativi principali è il bilanciamento tra innovazione e sicurezza. L’innovazione è un pilastro fondamentale per lo sviluppo dell’IA, ma se eccessivamente limitata, rischia di porre l’UE in una posizione di svantaggio rispetto a Paesi più disinvolti come Cina e USA.

  • Tendenze globali e coordinamento internazionale

L’AI Act non riguarda solo l’Europa: altri Paesi extra-UE stanno infatti sviluppando politiche proprie sull’intelligenza artificiale. Sarà pertanto fondamentale riuscire ad armonizzare i regolamenti in modo da evitare frammentazioni nelle future applicazioni.

  • Adattamento alle nuove tecnologie

È necessario che i legislatori abbiano uno sguardo rivolto al futuro. Le normative devono essere abbastanza flessibili da adattarsi a nuove scoperte e cambiamenti tecnologici, evitando che leggi obsolete possano compromettere l’efficacia delle regolamentazioni.

Quali sono gli obiettivi dell’AI Act?

Come indicato all’inizio di questo articolo, l’AI Act ha l’obiettivo di creare un quadro normativo per l’intelligenza artificiale, promuovendo un utilizzo responsabile e sicuro, con l’intento di minimizzare i rischi legati alla sua adozione. Entrando nello specifico della questione è possibile riscontrare ulteriori step da raggiungere:

  1. Sicurezza: garantire che i sistemi di IA non causino danni alle persone o alla società. Saranno stabilite linee guida per il funzionamento sicuro dell’IA, con particolare attenzione ai sistemi ad alto rischio
  2. Trasparenza e affidabilità: consentire alle persone di comprendere come vengono prese le decisioni basate su sistemi di IA, soprattutto quando queste influenzano significativamente la loro vita
  3. Promozione dell’innovazione: creare un ambiente favorevole alla crescita dell’IA, senza compromettere la sicurezza e i diritti fondamentali dei cittadini

 

A che punto siamo?

Sappiamo che nel complesso ci vorranno circa 24 mesi per l’applicazione definitiva, ma, a inizio febbraio, hanno visto la luce i primi divieti il cui obiettivo è quello di evitare che l’intelligenza artificiale venga utilizzata per attività contrarie ai valori umani fondamentali a quelli dell’Unione europea. L’ IA è pertanto ufficialmente classificata in quattro categorie di rischio, a seconda dell’impatto che può avere sulla vita delle persone:

  1. Rischio minimo: tecnologie che presentano pochi rischi. Esempio: chatbot, che devono essere identificati come tali
  2. Rischio limitato: rischi contenuti. Esempio: sorveglianza delle infrastrutture pubbliche o assistenza virtuale
  3. Rischio alto: possibilità di impatti significativi. Esempio: settore sanitario, trasporti, contesti legali
  4. Rischio inaccettabile: possibili minacce per i diritti umani o la sicurezza. Esempio: riconoscimento facciale di massa

Di conseguenza si è provveduto a redigere regole che le aziende che sviluppano o utilizzano l’AI in maniera considerata ad alto rischio dovranno obbligatoriamente seguire:

  • trasparenza nell’uso dell’IA, con obbligo di informare le persone quando interagiscono con sistemi automatizzati, con relative documentazioni e rapporti che attestano la conformità alle normative e che possano essere facilmente ispezionati dalle autorità competenti
  • monitoraggio e audit costante per garantire la conformità agli standard di sicurezza
  • valutazioni di impatto, in caso di potenziali rischi per la privacy o i diritti individuali

 

In conclusione: l’AI Act rappresenta un passo cruciale nella regolamentazione dell’intelligenza artificiale in Europa, con l’obiettivo di garantire un equilibrio tra innovazione, sicurezza e rispetto dei diritti fondamentali. Sebbene il processo legislativo sia ancora in corso, la sua adozione promette di segnare un punto di svolta per l’industria dell’IA, con implicazioni rilevanti non solo per le aziende, ma anche per i cittadini europei. In un contesto globale sempre più competitivo, l’adozione di normative comuni e il coordinamento internazionale saranno essenziali per evitare frammentazioni e garantire un futuro sicuro e prospero per l’intelligenza artificiale. È fondamentale, quindi, che tutti gli attori coinvolti – dalle istituzioni europee alle aziende – collaborino per favorire un utilizzo responsabile e vantaggioso di questa tecnologia trasformativa. 

Per le aziende si sta rendendo necessario comprendere la sfida che si sta parando loro di fronte: dovranno “arrendersi” alla necessità di un adeguamento in termini di compliance, etica e competitività, cogliendo però l’opportunità di differenziarsi grazie all’uso responsabile dell’intelligenza artificiale. Sarà inoltre fondamentale tenere a mente la duplice valenza di una strategia che non solo le porterà a evitare rischi legali, ma garantirà loro una sempre maggiore affezione da parte del pubblico con un conseguente miglioramento della propria reputazione e tutto ciò che di positivo ne deriverà.