La prima norma al mondo sull’Intelligenza Artificiale Arriva dall’Unione Europea: approvato l’AI Act

The EU approved the first Artificial Intelligence regulation in the world: here’s the AI Act

L’ultima tappa (per ora) nella corsa alla regolamentazione riguarda l’Intelligenza Artificiale

In tempi non sospetti avevamo anticipato che il 2023 sarebbe stato l’anno della regolamentazione – e della compliance. E le nostre aspettative si sono rivelate più che fondate, sia nel contesto finanziario che in diversi altri ambiti. La rapidità e il peso delle continue novità tecnologiche, sociali e ambientali, infatti, stanno imponendo e imporranno l’implementazione di quadri normativi che garantiscano di innovare nella tutela di tutte le parti coinvolte. Ecco perché, in un contesto simile, la necessità di introdurre norme e linee guida riguarda soprattutto il settore tecnologico. Basti pensare all’emanazione del Regolamento MiCA (Markets in Crypto-Assets), relativo al mondo Crypto, o anche al Regolamento DORA (Digital Operational Resilience Act), ovvero l’Atto sulla Resilienza Operativa Digitale, entrambi nell’UE. Che si conferma apripista in questa corsa alla regolamentazione con l’approvazione da parte del Parlamento Europeo, lo scorso 14 giugno, proprio dell’AI Act, documento con cui l’Unione Europea intende “regolamentare l’Intelligenza Artificiale al fine di garantire migliori condizioni per lo sviluppo e l’uso di questa innovativa tecnologia”, come si legge sul sito ufficiale del Parlamento Europeo.

Origine e obiettivi dell’AI Act, la prima legge mondiale sull’Intelligenza Artificiale

Per approfondire il contenuto dell’AI Act, è opportuno fare riferimento al documento pubblicato sul proprio sito ufficiale dallo stesso Parlamento Europeo relativo all’utilizzo dell’Intelligenza Artificiale nell’UE. La stesura della prima norma al mondo sull’AI affonda le radici nell’aprile 2021, quando la Commissione Europea propone la creazione del primo quadro normativo dell’UE sull’Intelligenza Artificiale. L’intenzione è quella di analizzare e classificare i sistemi di AI “in base al rischio che rappresentano per gli utenti”, comportando conseguentemente una maggiore o minore regolamentazione. Con l’AI Act, il Parlamento intende “assicurarsi che i sistemi di Intelligenza Artificiale utilizzati nell’UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente”. Le nuove norme, da poco approvate dal Parlamento Europeo, stabiliscono dunque obblighi per fornitori e utenti in base al livello di rischio di ogni sistema di AI, comportando che questi vengano analizzati per valutarne la categoria di appartenenza.

Alla scoperta dell’AI Act: i tre livelli di rischio dell’Intelligenza Artificiale e i relativi obblighi

Il livello di rischio maggiore è stato definito “rischio inaccettabile” e comporta il divieto dei sistemi di Intelligenza Artificiale che costituiscono una tale minaccia. Le tipologie di AI di questa categoria includono:

  • manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici;
  • classificazione sociale delle persone in base a comportamento, livello socio-economico, caratteristiche personali;
  • sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale.

Saranno però ammesse rare eccezioni, come i sistemi di identificazione biometrica utilizzati a distanza di tempo per perseguire reati gravi e previa autorizzazione del giudice. Si passa poi al “rischio alto”, ovvero ai sistemi di AI che influiscono negativamente sulla sicurezza o sui diritti fondamentali. Si tratta di:

  1. sistemi di Intelligenza Artificiale utilizzati in prodotti soggetti alla direttiva dell’UE sulla sicurezza generale dei prodotti (giocattoli, aviazione, automobili, dispositivi medici e ascensori);
  2. sistemi di AI che rientrano in otto specifiche aree (specificate sul sito web del Parlamento Europeo) e che dovranno essere registrati in un database dell’UE.

Tra questi rientrano, ad esempio, i sistemi di IA che potrebbero essere utilizzati per influenzare gli elettori e i sistemi utilizzati dai social media con oltre 45 milioni di utenti. Infine, la terza fascia di rischio è quella dei sistemi di AI a “rischio limitato”, rispetto ai quali occorre soltanto rispettare alcuni “requisiti minimi di trasparenza che consentano agli utenti di prendere decisioni informate”, come l’indicazione esplicita di ogni interazione con l’Intelligenza Artificiale. È importante sottolineare che i sistemi a rischio limitato includono quelli di Generative AI, di cui parleremo meglio tra poco. Ora che il Parlamento ha approvato l’AI Act ed esposto la propria posizione negoziale nella sessione plenaria dello scorso 14 giugno, l’obiettivo è quello negoziare e sigillare un accordo con i Paesi dell’UE in Consiglio per la stesura finale della legge entro la fine del 2023.

La Generative AI all’interno dell’AI Act: come si esprime l’Unione Europea?

Come anticipato qualche riga fa, all’interno dell’AI Act, il Parlamento Europeo ha inserito i sistemi di Generative AI – sia di testo, come ChatGPT, che di immagini, audio o video (inclusi i deepfake) – nella categoria dei sistemi a rischio limitato. Di conseguenza, le aziende che offrono servizi di Generative AI dovranno rispettare dei semplici requisiti di trasparenza, ovvero:

  • comunicare esplicitamente che il contenuto è stato generato da un’Intelligenza Artificiale;
  • progettare il modello in modo da impedire la generazione di contenuti illegali;
  • pubblicare riepiloghi dei dati con diritti d’autore utilizzati per l’addestramento.

Entrando nel merito della questione, c’è da specificare che la Generative AI rappresenta un mondo tuttora da esplorare, tanto a livello normativo quanto a livello tecnico. I modelli di Generative AI espongono infatti a grandi rischi nei casi di eccessiva confidenza da parte degli utenti, ma anche delle aziende, verso questi strumenti. Sul tema concordano tanto il magazine Technology Review del MIT (Massachusetts Institute of Technology) – “questa tecnologia non è ancora pronta per essere utilizzata su larga scala” – quanto i ricercatori dell’Università di Stanford, di Georgetown e di OpenAI, in riferimento alla manipolazione dei soggetti a fini di propaganda. Ma gli esempi sui limiti di accuratezza fattuale dei modelli di Generative AI non mancano, come rileviamo in un post specificamente dedicato al tema. Riprendendo un’interessante analisi della giornalista dell’agenzia Reuters Karen Kwok, i responsabili politici stanno seguendo linee diverse rispetto all’Intelligenza Artificiale. Mentre l’UE, la Cina e il Canada stanno cercando di costruire una nuova architettura normativa, attualmente l’India e il Regno Unito si sono espresse contro la necessità di una regolamentazione speciale per l’AI. Gli Stati Uniti, invece, sembrano tenere una posizione intermedia, con la proposta del presidente Biden di una Carta dei diritti dell’AI, contestuale alle discussioni interne al Congresso sull’eventuale necessità di norme mirate.

È possibile ridurre i rischi della Generative AI? Sì, con la RAG: la Chat normativa di Aptus.AI

Sicuramente l’approvazione da parte del Parlamento Europeo ha approvato della proposta di norma è un grande passo, come dimostrano anche le parole della presidente del Parlamento, Roberta Metsola, che l’ha definita “una legislazione che senza dubbio stabilirà lo standard globale per gli anni a venire”, come riportato su Altalex. Ma la storia della prima legge sull’Intelligenza Artificiale è ancora tutta da scrivere, sia a livello europeo che, soprattutto, mondiale. Il punto di vista di Aptus.AI, come sempre, è quello di portare avanti l’innovazione senza riserve, ma con estrema attenzione, affinché l’output di certi servizi sia affidabile e privo di rischi per gli utenti finali. All’interno del nostro SaaS RegTech, abbiamo infatti già integrato un servizio di Conversational AI, basato su modelli di generazione di testo pensati non soltanto per fornire informazioni in tempo reale, ma soprattutto per fornire informazioni attendibili a livello fattuale. E questo è ancora più importante in campi come quello dell’analisi normativa, dato che le informazioni legali, per poter essere utilizzate, devono essere sia aggiornate che certe. Una delle metodologie che usiamo affinché le risposte della nostra Chat normativa siano affidabili è la Retrieval Augmented Generation (RAG), che presentiamo dettagliatamente in un post dedicato. In sintesi, con il nostro servizio di chat, è possibile ricevere istantaneamente dalla Generative AI risposte che avrebbero richiesto ore di lavoro e competenze legali specifiche.