Il Regolamento UE sull’Intelligenza Artificiale

Condividi

La proposta di Regolamento europeo per uno sviluppo sicuro e affidabile dei sistemi di Intelligenza Artificiale.

regolamento UE intelligenza artificialele

L’Intelligenza Artificiale è una delle più grandi sfide tecnologiche dei giorni nostri.

Coinvolge diversi ambiti di applicazione e significativo è il suo impatto sulle attività d’impresa, sulle pubbliche amministrazioni e più in generale sulla quotidianità di ciascuno di noi.

Non mancano le implicazioni etiche e filosofiche e una regolamentazione in ambito europeo, nel percorso verso la trasformazione digitale che si sta compiendo è stata richiesta da più parti.

In tale contesto, si inserisce la proposta di Regolamento approvato dalla Commissione europea con l’obiettivo di armonizzare la normativa applicabile e contribuire alla creazione di una solida base giuridica che possa dare una spinta all’innovazione, tutelando la sicurezza e i diritti individuali.

Con il termine intelligenza artificiale (IA) si indica una famiglia di tecnologie in rapida evoluzione in grado di apportare una vasta gamma di benefici economici e sociali in tutto lo spettro delle attività industriali e sociali.

L’uso dell’intelligenza artificiale, garantendo un miglioramento delle previsioni, l’ottimizzazione delle operazioni e dell’assegnazione delle risorse e la personalizzazione dell’erogazione di servizi, può contribuire al conseguimento di risultati vantaggiosi dal punto di vista sociale e ambientale nonché fornire vantaggi competitivi fondamentali alle imprese e all’economia europea.

Tale azione è particolarmente necessaria in settori ad alto impatto, tra i quali figurano quelli dei cambiamenti climatici, dell’ambiente e della sanità, il settore pubblico, la finanza, la mobilità, gli affari interni e l’agricoltura.

Tuttavia gli stessi elementi e le stesse tecniche che alimentano i benefici socio-economici dell’IA possono altresì comportare nuovi rischi o conseguenze negative per le persone fisiche o la società. In considerazione della velocità dei cambiamenti tecnologici e delle possibili sfide, l’UE si impegna a perseguire un approccio equilibrato.

L’interesse dell’Unione è quello di preservare la leadership tecnologica dell’UE e assicurare che i cittadini europei possano beneficiare di nuove tecnologie sviluppate e operanti in conformità ai valori, ai diritti fondamentali e ai principi dell’Unione.

Proposta di REGOLAMENTO DEL PARLAMENTO EUROPEO E DEL CONSIGLIO CHE STABILISCE REGOLE ARMONIZZATE SULL’INTELLIGENZA ARTIFICIALE

Obiettivi del Regolamento sull’Intelligenza Artificiale

Con lo scopo di fare dell’Europa un punto di riferimento mondiale per un’intelligenza artificiale affidabile, il Regolamento sull’Intelligenza Artificiale intende fissare regole flessibili che consentano di:

  • Affrontare i rischi specifici derivanti dai sistemi di IA;
  • Individuare alti standard di riferimento al livello mondiale.

Il piano delineato si struttura attraverso l’individuazione dei cambiamenti strategici da affrontare, nonché degli investimenti a cui gli Stati membri dovranno andare incontro per lo sviluppo di un’intelligenza artificiale:

  • Antropocentrica;
  • Sostenibile;
  • Sicura;
  • Inclusiva;
  • Affidabile.

La classificazione dell’IA basata sul rischio

Le regole individuare dalla Commissione saranno applicate in tutti gli Stati membri, partendo da un approccio basato sullla classificazione delle tecnologie in base al rischio.

Sono 4 le tipologie di rischio individuate:

Rischio inaccettabile

Tutte le pratiche di IA che generano un rischio inaccettabile sono vietate. Ricadono sotto tale categoria tutti i sistemi che rappresentano una minaccia per la sicurezza degli individui o che possano manipolare il comportamento umano ed eludere il libero arbitrio, come ad esempio, applicazioni che permettono ai governi di assegnare un “punteggio sociale” per il comportamento dei cittadini, o l’uso di identificazione biometrica a distanza in real time in spazi pubblici, o tecniche che possano alterare, ad ogni modo, il comportamento di un individuo in maniera dannosa.

Rischio alto

Si tratta di applicazioni che presentano un elevato rischio di provocare danni, per cui l’uso è limitato con specifici e accurati controlli di sicurezza.  Tra queste possono rientrare i sistemi relativi a infrastrutture critiche essenziali come i trasporti, i sistemi che rientrano nell’ambito dell’istruzione, dei dispositivi medici, della giustizia o sicurezza sociale. Il Regolamento prevede che vengano effettuati dei controlli per tali tipologie di sistemi da parte del fornitore in materia di:

  • Trasparenza: la progettazione e lo sviluppo devono essere comprensibili agli utenti in modo da consentirne un utilizzo appropriato;
  • Sicurezza: l’accuratezza, la precisione del dispositivo devono essere garantite durante l’intero ciclo di vita per evitare gravi incidenti e malfunzionamenti;
  • Responsabilizzazione: deve essere tenuta aggiornata la documentazione tecnica completa a dimostrazione della conformità con il Regolamento stesso. Il sistema deve, inoltre, essere registrato presso le banche dati europee prima che venga introdotto sul mercato;
  • Gestione del rischio: deve essere costantemente implementato un sistema di gestione del rischio e controllo qualità;
  • Verifica : i dati relativi alla verifica del sistema devono rispondere ad appropriate pratiche di governance e gestione dati;
  • Supervisione umana: deve essere sempre assicurata un’efficace supervisione umana per consentire in caso di rischio l’intervento umano.

Rischio limitato

Si tratta di applicazioni oggetto di regole di trasparenza e controllo, ma comunque che rispondono a pratiche non vietate. Sono auspicabili codici di condotta che regolino l’attenzione del fornitore nei confronti dell’utente perché quest’ultimo possa decidere con cognizione di causa l’utilizzo;

Rischio minimo

È previsto il libero utilizzo di sistemi che non presentano rischi significativi per la sicurezza e i diritti dei cittadini, come ad esempio videogiochi.

Controlli e sanzioni

Per garantire il rispetto della normativa i controlli e l’assistenza saranno affidati a:

  • European Artificial Intelligence Board: un comitato appositamente istituito per consulenza e assistenza sui temi di IA, che possa garantire un’efficace cooperazione tra le autorità nazionali e la Commissione, il coordinamento degli orientamenti in materia e l’assistenza alle autorità nazionali preposte al controllo;
  • Autorità nazionali competenti: dovranno essere individuate autorità nazionali competenti che possano fornire orientamenti e consulenze sull’attuazione del Regolamento IA.

    Ricevi maggiori informazioni da un advisor FIMAP

    Prenota una call allo 06.4741646 oppure compila il form.

    Nome e cognome*

    Inserisci il bando a cui sei interessato*

    Regione in cui sei localizzato*

    Indirizzo mail*

    Telefono

    Descrivi la tua impresa, startup o PMI innovativa*


    Condividi