Per prevenire la fuga di dati, Samsung vieta ai propri dipendenti di utilizzare ChatGPT

Samsung, che, come Goldman Sachs, Amazon o JP Morgan, ha limitato l’uso di piattaforme di intelligenza artificiale generativa (AI), indica in una nota interna consultata da AFP che sta cercando di trovare modi per integrare i servizi di intelligenza artificiale generativa in uno “. ambiente sicuro per i dipendenti, in modo da migliorare l’efficienza e il comfort del lavoro “. Intanto la società mette al bando” temporaneamente l’uso di servizi di intelligenza artificiale generativa per i computer di proprietà dell’azienda “.

ChatGPT, una manna per i criminali informatici e un rischio significativo per le aziende

Un promemoria interno di AFP afferma che Samsung sta lavorando per trovare modi per alimentare i servizi di intelligenza artificiale generativa in un ” ambiente sicuro per i dipendenti, in modo da migliorare l’efficienza e il comfort del lavoro “. La nota interna indica che era a conoscenza” caso di abuso tali strumenti da parte dei dipendenti Samsung senza fornire dettagli. Il documento raccomanda inoltre che i dipendenti non carichino informazioni relative al lavoro su queste piattaforme quando accedono fuori sede. Secondo quanto riferito, tre dipendenti hanno fornito informazioni riservate raccolte da ChatGPT per arricchire il suo database.

Di fronte a questa nuova situazione, le aziende hanno urgente bisogno di adeguare le proprie politiche di sicurezza informatica, come ha già sottolineato Karen Renaud, informatica dell’Università di Strathclyde, specializzata in questioni di sicurezza e protezione dei dati. “Le aziende devono enfatizzare la formazione dei loro team, che più che mai hanno bisogno di essere addestrati a pensare in modo critico e mostrare sempre diffidenza. Con ChatGPT e deepfake, consigli come “assicurati di conoscere la persona che ti sta parlando prima di fare ciò che vuole” sono completamente obsoleti. Inoltre, le organizzazioni devono essere più flessibili nell’evoluzione della loro politica di sicurezza: in un’epoca in cui la natura delle minacce cambia quotidianamente, gli aggiornamenti delle politiche di sicurezza informatica non possono più richiedere mesi per passare attraverso tutti i livelli gerarchici. »

ChatGPT nuovamente consentito in Italia

Dallo scorso fine settimana, invece, ChatGPT, bandito un mese fa in Italia per aver violato la normativa sulla protezione dei dati personali, è stato riammesso nella penisola. Il Garante per la protezione dei dati personali italiano aveva bloccato a fine marzo ChatGPT, che accusava di non rispettare le normative europee e di non avere un sistema per verificare l’età degli utenti minorenni. OpenAI ora pubblica informazioni sulla sua pagina su come ” collezione ” E ” utilizza dati relativi alla formazione » e offre un « maggiore visibilità nella home page dell’informativa sulla privacy di ChatGPT e OpenAI. La società sostiene inoltre di aver predisposto uno strumento” permette di verificare l’età degli utenti in Italia non appena si collegano. Il 13 aprile, la Spagna ha annunciato l’avvio di un’indagine su ChatGPT, il giorno in cui l’Unione Europea ha istituito un gruppo di lavoro per promuovere la cooperazione europea sulla questione.

Uno dei padri fondatori dell’IA avverte dei suoi pericoli

Geoffrey Hinton, considerato uno dei padri fondatori dell’intelligenza artificiale (AI), ha avvertito dei suoi pericoli mentre lascia il suo posto a Google. I progressi in questo settore portano a ” rischi profondi per la società e l’umanità “, stima lo scienziato nel New York Times. ” Guarda dov’eravamo cinque anni fa e dove siamo adesso ‘ continua, giudicando’ spaventoso » Prospettive future attraverso previsioni basate sui progressi compiuti negli ultimi anni. Secondo lui, “ È difficile vedere come evitare che i cattivi attori lo usino per cose cattive “.

Secondo il giornale, l’esperto ha annunciato le sue dimissioni a Google il mese scorso. In un tweet che conferma la sua partenza, respinge ogni desiderio di criticare il gigante della tecnologia per la decisione. ” Google si è comportato in modo molto responsabile Nel 2019, Geoffrey Hinton, insieme ad altri due specialisti di intelligenza artificiale, ha ricevuto il Premio Turing, l’equivalente del Premio Nobel per gli informatici.

(Con AFP)