La Commissione nazionale per l’informatica e le libertà (CNIL) ha pubblicato martedì (16 maggio) un piano d’azione per l’implementazione di sistemi di intelligenza artificiale rispettosi della privacy, in particolare per applicazioni generative come ChatGPT.
ChatGPT, il chatbot più famoso al mondo, ha portato la sua base di utenti a 100 milioni di utenti nei primi due mesi dal suo lancio. Tuttavia, la sua popolarità sta crescendo insieme alle preoccupazioni sul modo in cui i dati personali vengono raccolti ed elaborati.
“Dati i problemi legati alla tutela delle libertà, l’accelerazione dell’IA e le novità legate all’IA generativa, la regolamentazione dell’intelligenza artificiale rappresenta una delle principali priorità delle azioni della CNIL”.si legge nell’annuncio.
A fine marzo ha riferito l’Osservatorio italiano Garante sanzionato OpenAI, fornitore di ChatGPT, per violazione dei dati. Il servizio è stato poi ripristinato in Italia ad aprile dopo che sono state intraprese azioni correttive.
La decisione del Garante ha aperto la strada a un approccio frammentato in tutta l’UE. È stato istituito il Comitato europeo per la protezione dei dati (EDPB), che riunisce tutte le autorità di regolamentazione dei dati dell’UE un gruppo di lavoro garantire l’uniforme applicazione della legge.
Il ruolo della CNIL
A livello europeo, l’autorità francese è già considerata una delle più influenti nell’UE, il che significa che il piano potrebbe avere un impatto sul modo in cui i regolatori europei affrontano la questione di ChatGPT e altre IA generative.
A livello nazionale, una fonte a conoscenza della questione ha dichiarato a EURACTIV, a condizione di anonimato, che l’autorità francese per la protezione dei dati ha accettato di attuare l’applicazione nazionale della legislazione sull’IA (Legge sull’IA), normativa europea di riferimento che mira a regolamentare l’IA in base alla loro capacità di causare danni.
Questo obiettivo è contenuto nel piano d’azione, che lo specifica “Questo lavoro consentirà anche di preparare l’entrata in vigore di un progetto di regolamento europeo sull’IA”..
Un approccio in quattro fasi
Le quattro fasi del piano d’azione consistono nel comprendere la tecnologia, modellarne lo sviluppo, creare un ecosistema di intelligenza artificiale e governare i sistemi di intelligenza artificiale.
Il primo passo è fornire risposte alle domande sulla protezione dei dati. Riguardano in particolare le questioni della trasparenza e del trattamento dei dati di formazione, della protezione dei dati accessibili al pubblico, della regolamentazione del raccolto (Raschiare) dei dati, protezione contro pregiudizi e discriminazioni e questioni di sicurezza.
Poiché questi aspetti sono prioritari nell’UE e in Francia, la CNIL ha dedicato risorse interne per rispondere a queste domande e ne ha già pubblicato uno caso Parere sulle risposte da dare in materia di protezione dei dati.
Il quadro di sviluppo dell’IA mira a guidare le aziende di intelligenza artificiale generativa verso sviluppi tecnici che rispettino i dati personali pubblicando documenti di orientamento, condividendo le migliori pratiche e ricordando le regole applicabili.
Il componente Ecosystem ha tre livelli. L’obiettivo è estendere l’ambito di applicazione delle normative esistenti dell’autorità di regolamentazione a progetti innovativi basati sull’IA.
La CNIL ha anche lanciato un concorso per aiutare le aziende a rispettare le norme europee sulla protezione dei dati. Inoltre, l’autorità francese ha avviato un progetto per i fornitori di “videosorveglianza potenziata”, nell’ambito degli esperimenti del governo francese con questi strumenti previsti dalla legge che disciplina i Giochi Olimpici e Paralimpici di Parigi 2024.
L’ultima parte del piano d’azione della CNIL riguarda i suoi compiti costitutivi: il collaudo e il controllo dei sistemi digitali. L’autorità di protezione dei dati si concentrerà sull’applicazione dell’uso della videosorveglianza potenziata, sull’uso dell’intelligenza artificiale per combattere le frodi e sull’indagine sui reclami contro l’IA generativa.
Su quest’ultimo punto, il regolatore francese rileva di aver già ricevuto diverse denunce contro OpenAI, che indagherà in coordinamento con i suoi colleghi GEPD.