L’autorità italiana per la protezione dei dati personali blocca il chatbot AI ChatGPT

Roma (AFP/dpa). Il chatbot ChatGPT, basato sull’intelligenza artificiale (AI), verrà bloccato in Italia per motivi di protezione dei dati. Lo sviluppatore dell’app, OpenAI con sede negli Stati Uniti, è autorizzato a elaborare i dati degli utenti Internet italiani “con effetto immediato” solo in misura limitata, ha affermato venerdì l’autorità per la protezione dei dati del paese. ChatGPT non ha rispettato le norme sulla protezione dei dati e sulla protezione dei giovani.

ChatGPT crea testi utilizzando l’intelligenza artificiale. Gli utenti possono specificare singoli comandi o frasi, che il sistema completa in modo indipendente utilizzando enormi quantità di dati da Internet. I protettori dei dati a Roma accusano la start-up di non dire ai propri utenti quali informazioni memorizzano e di non avere basi legali per raccogliere e archiviare i dati. Mancano anche misure a tutela dei minori, ad esempio non esiste il controllo dell’età per i minori.

La società americana dovrebbe ora “informare entro 20 giorni delle misure adottate”, ha affermato l’agenzia. Altrimenti si rischia “una multa fino a 20 milioni di euro o fino al quattro per cento del fatturato annuo”. ChatGPT ha un enorme successo, ma recentemente gli avvertimenti si sono accumulati. Questa settimana, ad esempio, l’autorità di polizia Europol ha affermato che criminali e truffatori potrebbero sfruttare l’app. Il chatbot può fornire informazioni, ad esempio, “da come entrare in una casa, al terrorismo, alla criminalità informatica e agli abusi sessuali su minori”.

Alberto Gabriele

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *