L'intelligenza artificiale (IA) sta trasformando profondamente le nostre società ed economie. Per sfruttare questo potenziale e gestirne i rischi, l'Unione europea sta introducendo la prima legislazione completa sull'IA, l'AI Act, a partire dal 1° agosto 2024.
Alcune cifre chiave del mercato dell'IA
L'intelligenza artificiale è diventata un vettore essenziale di trasformazione:
- Mercato mondiale: stimato a 500 miliardi di dollari entro il 2028 (fonte: Statista).
- Crescita: si prevede che il mercato crescerà di 37 % ogni anno dal 2024 al 2030 (fonte: Hostinger).
- Percezione pubblica: il 51 % dei francesi vede l'IA sia come un pericolo che come un passo avanti (Fonte: Cluster 17 e Le Point).
Queste cifre dimostrano l'importanza strategica dell'IA e la necessità di una regolamentazione adeguata.
Perché regolamentare l'intelligenza artificiale?
- Bias e discriminazione : rischi di riprodurre e amplificare i pregiudizi esistenti nei dati di formazione, portando a decisioni discriminatorie.
- Protezione della privacy : rischi associati alla profilazione, all'accesso non autorizzato ai dati personali e all'incidente di Cambridge Analytica.
- La manipolazione dell'informazione: il problema dei deepfakes e la propagazione delle fake news da parte dei bot.
- Impatto sull'occupazione: trasformazione del mercato del lavoro con la creazione di nuove opportunità, ma anche possibili disuguaglianze.
- Mancanza di trasparenza: funzionamento opaco dei sistemi di IA, spesso paragonati a “scatole nere”.
- Sicurezza e protezione: rischi di dirottamento o malfunzionamento che potrebbero causare incidenti o mettere in pericolo infrastrutture critiche.
Legge sull'IA: come la legge regola i sistemi di IA
L'AI Act è la prima legislazione generale al mondo che regolamenta lo sviluppo, la commercializzazione e l'uso dei sistemi di intelligenza artificiale. I suoi punti chiave includono:
Classificazione dei sistemi di IA in base al rischio
- Rischi inaccettabili: Sistemi vietati dal 2 febbraio (ad esempio, sistemi di valutazione sociale, rilevamento delle emozioni in tempo reale sul posto di lavoro, riconoscimento facciale in tempo reale negli spazi pubblici a scopo di profilazione).
- Alto rischio: Sistemi che richiedono una regolamentazione rigorosa (ad esempio, identificazione biometrica a distanza, sistemi di sorveglianza di infrastrutture critiche).
- Ririschio specifico in termini di trasparenza: Sistemi che richiedono garanzie di trasparenza. (ad esempio, sistemi di riconoscimento facciale, sistemi di raccomandazione).
- Rischio minimo: Sistemi come chatbot o filtri antispam, per i quali è incoraggiata l'adozione di codici di buone pratiche.
Gli attori della catena del valore dell'IA
L'AI Act si applica a tutti gli attori coinvolti nel ciclo di vita dei sistemi di IA, tra cui:
- Venditori: coloro che sviluppano e commercializzano sistemi di IA.
- Deployers: coloro che utilizzano i sistemi di IA in ambito professionale.
- <Agente: coloro che si trovano nell'Unione Europea e hanno ricevuto un mandato scritto da un fornitore di servizi di IA. Tale mandato consente all'agente di agire per conto del fornitore per gestire i suoi obblighi e le sue procedure.
- Importatori: coloro che hanno sede nell'UE e immettono sul mercato un sistema di IA che porta il nome o il marchio di una società stabilita in un paese terzo.
- Distributori: coloro che rendono disponibili i sistemi di IA sul mercato dell'UE.
Obblighi dei giocatori IA
Gli obblighi dei giocatori di IA dipendono dal livello di rischio associato ai loro sistemi di IA. I sistemi di IA ad alto rischio comportano obblighi per tutti gli attori:
Per i fornitori
I fornitori devono identificarsi nel sistema AI, redigere una dichiarazione di conformità, apporre il marchio CE, garantire la gestione della qualità, valutare la conformità prima dell'immissione sul mercato e adottare misure correttive in caso di non conformità.
Per i distributori
I responsabili dell'implementazione hanno responsabilità specifiche. In termini organizzativi e tecnici, devono implementare misure per garantire la sicurezza del sistema, assicurare un efficace controllo umano sul suo utilizzo e verificare rigorosamente la qualità dei dati inseriti. In termini di comunicazione, sono responsabili dell'informazione dei dipendenti e degli interessati e devono effettuare valutazioni d'impatto sui diritti fondamentali.
Per gli agenti
Per quanto riguarda gli agenti, essi devono verificare la conformità dei sistemi di IA ad alto rischio, tenere i documenti a disposizione delle autorità per dieci anni, collaborare per mitigare i rischi e rispettare gli obblighi di registrazione.
Per il importatori :
Gli importatori, da parte loro, hanno la responsabilità di garantire la conformità dei sistemi di IA prima della loro immissione sul mercato e di indicare l'identità del sistema di IA e della sua documentazione, nonché di conservare per dieci anni una copia del certificato rilasciato dall'organismo notificato.
Per i distributori
Anche i distributori hanno i loro obblighi. Devono controllare meticolosamente la conformità dei documenti, applicare un principio di precauzione prima di qualsiasi distribuzione e garantire condizioni di stoccaggio e trasporto adeguate.
Sanzioni in caso di non conformità
La legge sulle AI prevede sanzioni severe in caso di mancato rispetto degli obblighi, tra cui :
- Pratiche vietate: ammende fino a 35 milioni di euro o 7 % di fatturato annuo.
- Altre violazioni: sanzioni fino a 15 milioni di euro o 3 % del fatturato mondiale annuo.
- Fornire informazioni inesatte: ammende fino a 7.500.000 euro o 1 % del fatturato annuo mondiale.
La conformità può essere difficile. Dobbiamo mappare gli usi dell'IA, identificare i rischi e preparare gli strumenti per la valutazione e la conformità.
Se desiderate essere accompagnati da esperti del settore su questi argomenti, contatto Tempio delle nuvole