AI ACT

L’Intelligenza Artificiale (IA) è una delle tecnologie più rivoluzionarie del nostro tempo, in grado di trasformare settori chiave come la sanità, l’istruzione, la finanza e molti altri. Tuttavia, l’uso diffuso dell’IA solleva anche preoccupazioni significative riguardo alla privacy, alla sicurezza, alla discriminazione e all’occupazione.
In risposta a queste sfide, l’Unione Europea ha sviluppato l’AI Act, una proposta di regolamento volta a garantire che l’IA sia utilizzata in modo sicuro e responsabile.

L’AI Act si propone di creare un quadro normativo completo per l’uso dell’IA nell’UE. La proposta è stata presentata dalla Commissione Europea il 21 aprile 2021 e rappresenta uno dei primi tentativi a livello globale di regolamentare in modo dettagliato questa tecnologia emergente. Il regolamento si basa su un approccio basato sul rischio, classificando i sistemi di IA in quattro categorie principali: rischio inaccettabile, rischio alto, rischio limitato e rischio minimo.

Rischio Inaccettabile: Questa categoria include i sistemi di IA che presentano una minaccia chiara e inaccettabile per la sicurezza, i diritti fondamentali e i valori dell’UE. Esempi di tali sistemi includono quelli che manipolano il comportamento umano in modo da compromettere la libertà di scelta degli individui, o quelli che permettono il punteggio sociale da parte dei governi, simile a quanto accade in alcuni paesi. Questi sistemi saranno proibiti nell’UE.

Rischio Alto: Questa categoria include i sistemi di IA che, se non regolamentati adeguatamente, potrebbero avere un impatto significativo sui diritti fondamentali, sulla sicurezza e sul benessere delle persone. Esempi includono l’IA utilizzata in ambito sanitario, nelle infrastrutture critiche come il trasporto, e nei processi di selezione del personale. Questi sistemi dovranno soddisfare requisiti stringenti prima di poter essere immessi sul mercato. Tali requisiti includono la valutazione e la mitigazione del rischio, la trasparenza, la sorveglianza umana, e la qualità dei dati utilizzati per l’addestramento dei modelli di IA.

Rischio Limitato: I sistemi di IA che rientrano in questa categoria presentano rischi più contenuti, ma richiedono comunque un certo livello di trasparenza. Gli utenti devono essere informati che stanno interagendo con un sistema di IA, permettendo loro di prendere decisioni consapevoli. Un esempio tipico di IA a rischio limitato è un chatbot utilizzato per l’assistenza clienti.

Rischio Minimo: Questa categoria comprende i sistemi di IA che presentano rischi molto bassi o nulli per i diritti e la sicurezza delle persone. In questo caso, l’AI Act non prevede requisiti specifici, permettendo agli sviluppatori di utilizzare liberamente tali tecnologie.
Esempi di IA a rischio minimo includono i filtri anti-spam per le email o i suggerimenti automatici nei motori di ricerca.

European AI ACT | TECHLAW
European AI ACT | TECHLAW

Oltre alla classificazione basata sul rischio, l’AI Act introduce diversi obblighi per i fornitori e gli utilizzatori di sistemi di IA. Tra questi obblighi vi sono la necessità di una documentazione dettagliata, la garanzia di trasparenza e informazione agli utenti, l’adozione di misure di sicurezza adeguate, e la garanzia di sorveglianza umana sui sistemi di IA ad alto rischio.

Un aspetto cruciale del regolamento è la creazione di un database europeo per i sistemi di IA ad alto rischio. Questo database sarà gestito dall’Agenzia Europea per l’Intelligenza Artificiale, un nuovo organismo proposto per monitorare l’implementazione del regolamento e garantire la conformità. Il database fornirà trasparenza sui sistemi di IA in uso, permettendo alle autorità competenti di monitorare efficacemente i rischi associati e intervenire in caso di problemi.

Un’altra componente fondamentale dell’AI Act è l’attenzione alla protezione dei dati personali. I sistemi di IA spesso richiedono grandi quantità di dati per funzionare correttamente, e questo può sollevare preoccupazioni riguardo alla privacy.
Il regolamento prevede che i dati utilizzati per l’addestramento e il funzionamento dei sistemi di IA siano di alta qualità, privi di bias e trattati in conformità con il Regolamento Generale sulla Protezione dei Dati (GDPR).

Il percorso verso l’adozione dell’AI Act non è privo di sfide. Una delle principali critiche al regolamento riguarda il potenziale impatto sull’innovazione. Alcuni esperti e attori del settore temono che requisiti troppo stringenti possano rallentare lo sviluppo e l’adozione di nuove tecnologie di IA in Europa, mettendo l’UE in svantaggio rispetto ad altre regioni del mondo, come gli Stati Uniti e la Cina, dove la regolamentazione è meno restrittiva.

Tuttavia, sostenitori del regolamento sottolineano che un approccio basato sul rischio è essenziale per garantire un uso sicuro e responsabile dell’IA. La fiducia del pubblico nell’IA è cruciale per la sua adozione diffusa, e un quadro normativo chiaro e completo può contribuire a costruire questa fiducia. Inoltre, l’UE vede nell’AI Act un’opportunità per stabilire standard globali per la regolamentazione dell’IA, promuovendo un uso etico e sostenibile della tecnologia.

A cura di Giuseppe Fragola

TECHLAW® - Innovation & Law

L’AI Act rappresenta un passo significativo verso la regolamentazione dell’IA in Europa.

Affrontando le sfide e le opportunità associate a questa tecnologia emergente, l’AI Act mira a creare un equilibrio tra innovazione e sicurezza, proteggendo i diritti fondamentali e promuovendo un uso responsabile dell’IA.
Se adottato, il regolamento potrebbe servire da modello per altre giurisdizioni nel mondo, stabilendo nuovi standard per la governance dell’IA a livello globale.

Utilizza l’AI Act Explorer della EU per esplorare i contenuti della legge.

NEWS/BLOG