Il chatbot ChatGPT di OpenAI bloccato in Italia per problemi di privacy

L'agenzia italiana per la protezione dei dati ha ordinato il divieto immediato del chatbot basato sull'intelligenza artificiale a causa di presunte violazioni della privacy.

ANNUNCIO

Venerdì l'autorità italiana di vigilanza sulla protezione dei dati ha emesso un divieto immediato di accesso al popolare chatbot di intelligenza artificiale di OpenAI, ChatGPT, citando presunte violazioni della privacy.

In un comunicato, l'Autorità nazionale italiana per la protezione dei dati personali ha affermato che ChatGPT “ha subito una violazione dei dati il ​​20 marzo riguardante le conversazioni degli utenti e le informazioni di pagamento degli abbonati al servizio a pagamento”.

La decisione, che entra “con effetto immediato”, comporterà “la limitazione temporanea del trattamento dei dati degli utenti italiani rispetto a [ChatGPT’s creator] OpenAI”, ha detto il cane da guardia.

ChatGPT è stato lanciato nel novembre 2022 e da allora è diventato estremamente popolare, impressionando gli utenti con la sua capacità di spiegare cose complesse in modo chiaro e conciso, scrivere in diversi stili e lingue con un tono dal suono umano, creare poesie e persino superare esami.

ChatGPT può essere utilizzato anche per scrivere codice informatico, senza avere conoscenze tecniche.

L’autorità italiana di regolamentazione dei dati, tuttavia, ha criticato ChatGPT per non aver fornito informative agli utenti i cui dati sono raccolti da OpenAI. Ha inoltre criticato “l'assenza di una base giuridica che giustifichi la raccolta e l'archiviazione massiccia di dati personali con l'obiettivo di 'addestrare' gli algoritmi che fanno funzionare la piattaforma”.

Inoltre, sebbene il robot sia destinato a persone di età superiore ai 13 anni, “l'Autorità sottolinea che l'assenza di qualsiasi filtro che consenta di verificare l'età degli utenti espone i minori a risposte assolutamente incoerenti con il loro livello di sviluppo”.

L’organismo di vigilanza ora richiede a OpenAI di “comunicare entro 20 giorni le misure adottate” per porre rimedio a questa situazione – altrimenti rischia una multa fino al 4% del suo fatturato annuo globale.

L’annuncio arriva mentre l’agenzia di polizia europea Europol ha avvertito lunedì che i criminali sono pronti a sfruttare i chatbot basati sull’intelligenza artificiale come ChatGPT per commettere frodi e altri crimini informatici.

Dal phishing alla disinformazione fino al malware, le capacità in rapida evoluzione dei chatbot sono suscettibili di rapido sfruttamento da parte di attori malintenzionati, ha affermato Europol in un rapporto.

Elon Musk e centinaia di esperti globali hanno anche avvertito questa settimana che i sistemi di intelligenza artificiale rappresentano “profondi rischi per la società e l’umanità” e hanno invitato le aziende a sospendere lo sviluppo della tecnologia per almeno sei mesi.

Alberto Gabriele

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *