- Di Shiona McCallum
- Giornalista tecnologico
L’Italia è diventato il primo Paese occidentale a bloccare il chatbot avanzato ChatGPT.
L’autorità italiana per la protezione dei dati ha affermato che ci sono problemi di privacy legati al modello, creato dalla start-up statunitense OpenAI e sostenuto da Microsoft.
L’autorità di regolamentazione ha affermato che metterà al bando e indagherà su OpenAI “con effetto immediato”.
OpenAI ha dichiarato alla BBC di rispettare le leggi sulla privacy.
Milioni di persone hanno utilizzato ChatGPT dal suo lancio nel novembre 2022.
Può rispondere a domande utilizzando il linguaggio naturale e umano e può anche imitare altri stili di scrittura, utilizzando Internet come era nel 2021 come database.
Microsoft ha speso miliardi di dollari per realizzarlo ed è stato aggiunto a Bing il mese scorso.
Ha inoltre annunciato che integrerà una versione della tecnologia nelle sue applicazioni Office, tra cui Word, Excel, PowerPoint e Outlook.
Sono state sollevate preoccupazioni sui potenziali rischi dell’intelligenza artificiale (AI), compresa la sua minaccia all’occupazione e la diffusione di disinformazione e pregiudizi.
All’inizio di questa settimana, figure chiave del settore tecnologico, tra cui Elon Musk, hanno chiesto la sospensione di questi tipi di sistemi di intelligenza artificiale, temendo che la corsa per svilupparli fosse fuori controllo.
L’autorità di vigilanza italiana ha affermato che non solo bloccherà il chatbot di OpenAI, ma controllerà anche se è conforme al regolamento generale sulla protezione dei dati.
Il GDPR regola il modo in cui possiamo utilizzare, elaborare e archiviare i dati personali.
Il 20 marzo l’autorità di vigilanza ha dichiarato che l’app ha subito una violazione dei dati che coinvolgeva conversazioni degli utenti e informazioni di pagamento.
Secondo lei, non esiste alcuna base giuridica per giustificare “la massiccia raccolta e archiviazione di dati personali con l’obiettivo di “addestrare” gli algoritmi che sono alla base del funzionamento della piattaforma”.
Si specifica inoltre che, non essendo possibile verificare l’età degli utenti, l’applicazione “espone i minori a risposte assolutamente inappropriate rispetto al loro livello di sviluppo e di consapevolezza”.
Bard, il chatbot di intelligenza artificiale rivale di Google, è ora disponibile, ma solo per utenti specifici di età superiore ai 18 anni, a causa delle stesse preoccupazioni.
L’autorità italiana per la protezione dei dati ha affermato che OpenAI aveva 20 giorni per dire come avrebbe affrontato le preoccupazioni dell’autorità di vigilanza, pena una multa di 20 milioni di euro (21,7 milioni di dollari) o fino al 4% del reddito annuo.
Separatamente, la Commissione irlandese per la protezione dei dati ha detto alla BBC che sta monitorando l’autorità di regolamentazione italiana per comprendere le basi della sua azione e che “si coordinerà con tutte le autorità europee per la protezione dei dati” riguardo al divieto.
L’Information Commissioner’s Office, l’autorità indipendente di regolamentazione dei dati del Regno Unito, ha dichiarato alla BBC che “sosterrà” gli sviluppi dell’intelligenza artificiale, ma è anche pronto a “contestare il mancato rispetto delle leggi sulla protezione dei dati.
Dan Morgan, del fornitore di rating sulla sicurezza informatica SecurityScorecard, ha affermato che il divieto dimostra l’importanza della conformità normativa per le aziende che operano in Europa.
“Le aziende devono dare priorità alla protezione dei dati personali e rispettare le rigide norme sulla protezione dei dati stabilite dall’UE: il rispetto delle normative non è un’opzione aggiuntiva”.
“Non sufficientemente regolamentato”
Il gruppo di difesa dei consumatori BEUC ha anche invitato le autorità europee e nazionali – compresi i supervisori della protezione dei dati – a indagare su ChatGPT e chatbot simili, in seguito alla presentazione di un reclamo negli Stati Uniti.
Sebbene l’UE stia attualmente lavorando alla prima legislazione sull’IA al mondo, la preoccupazione del BEUC è che ci vorranno anni prima che la legge sull’IA possa entrare in vigore, esponendo i consumatori al rischio di danni dovuti a una tecnologia non sufficientemente regolamentata.
Ursula Pachl, vicedirettrice generale del BEUC, ha avvertito che la società “attualmente non è sufficientemente protetta dai danni” che l’intelligenza artificiale può causare.
“Stanno crescendo serie preoccupazioni su come ChatGPT e altri chatbot simili potrebbero ingannare e manipolare le persone. Questi sistemi di intelligenza artificiale richiedono un maggiore controllo pubblico e le autorità pubbliche devono riaffermare il loro controllo”, ha affermato.
ChatGPT è già bloccato in diversi paesi, tra cui Cina, Iran, Corea del Nord e Russia.
OpenAI ha dichiarato alla BBC di aver disabilitato ChatGPT per gli utenti in Italia su richiesta del Garante italiano per la protezione dei dati:
“Ci impegniamo a proteggere la privacy delle persone e crediamo di rispettare il GDPR e le altre leggi sulla privacy”, ha scritto.
L’organizzazione ha affermato che sta lavorando per ridurre i dati personali nell’addestramento dei sistemi di intelligenza artificiale come ChatGPT perché voleva che i suoi sistemi di intelligenza artificiale “imparassero a conoscere il mondo, non gli individui”.
“Crediamo inoltre che sia necessaria una regolamentazione dell’IA, quindi non vediamo l’ora di lavorare a stretto contatto con il Garante e informarli su come vengono costruiti e utilizzati i nostri sistemi”, aggiunge.
OpenAI ha affermato che non vede l’ora di rendere ChatGPT nuovamente disponibile in Italia “presto”.