Il G7 si prepara a introdurre un “codice di condotta” per le aziende attive nel campo dell’intelligenza artificiale. Questa iniziativa, parte del “Processo di Hiroshima”, mira a combattere l’uso improprio e i rischi associati alla tecnologia dell’intelligenza artificiale.
I membri del G7 (Canada, Francia, Germania, Italia, Giappone, Regno Unito, Stati Uniti e Unione Europea) ha lanciato questa iniziativa per definire le linee guida per la prossima normativa sull’IA.
Verso un’intelligenza artificiale più etica?
Sebbene l’intelligenza artificiale stia suscitando preoccupazioni in tutto il mondo, questa è una novità Codice di comportamento potrebbe dare agli utenti un piccolo barlume di speranza. Secondo un documento pubblicato dal G7, questo codice di condotta mira a:
“Promuovere un’intelligenza artificiale sicura e affidabile in tutto il mondo e fornire linee guida volontarie per le organizzazioni che sviluppano i sistemi di intelligenza artificiale più avanzati”.
Il Codice incoraggia le aziende a identificare, valutare e mitigare i rischi durante il ciclo di vita dell’IA. Si raccomanda inoltre di riferire pubblicamente sulle possibilità, i limiti e l’uso dell’intelligenza artificiale e di investire in solidi controlli di sicurezza.
Saperne di più : Le 5 criptovalute IA più promettenti per il 2023
In una conferenza sulla governance del web, Vera Jourova, responsabile della politica digitale presso la Commissione Europea, ha dichiarato:
“Questo codice di condotta fornisce una solida base per garantire la sicurezza. Servirà da ponte fino all’entrata in vigore delle norme”.
OpenAI si rivolge ai regolatori
Anche OpenAI, la società madre di ChatGPT, ha formato un team che lavorerà sulla gestione dei rischi posti dai modelli di intelligenza artificiale. Guidato da Aleksander Madry, questo team affronterà rischi quali la persuasione personalizzata, le minacce alla sicurezza informatica e la diffusione di notizie false.
Con questa iniziativa, OpenAI mira a contribuire al prossimo vertice globale sull’intelligenza artificiale che si terrà nel Regno Unito, che mira a promuovere la sicurezza e la trasparenza dell’intelligenza artificiale.
Inoltre, il governo del Regno Unito considera Frontier AI un modello di intelligenza artificiale “sofisticato”.
“Si tratta di modelli di intelligenza artificiale generici e ad alte prestazioni in grado di eseguire un’ampia gamma di compiti, eguagliando o superando le capacità dei modelli più avanzati di oggi”.
L’OpenAI Readiness Team si concentrerà sulla gestione del rischio e rafforzerà la necessità di un “codice di condotta” globale per l’intelligenza artificiale.
Poiché l’intelligenza artificiale continua ad evolversi, sono urgentemente necessari l’atteggiamento proattivo del G7 e l’impegno di OpenAI per la mitigazione dei rischi. Il “codice di condotta” volontario e la formazione di un gruppo di gestione del rischio rappresentano passi importanti verso un utilizzo più responsabile dell’intelligenza artificiale, con l’obiettivo di garantire che i vantaggi di questa tecnologia superino i rischi.
La morale della storia è che gli esseri umani dovrebbero controllare la tecnologia e non il contrario.
Disclaimer
Dichiarazione di non responsabilità: in conformità con le linee guida del Trust Project, BeInCrypto si impegna a fornire informazioni imparziali e trasparenti. Lo scopo di questo articolo è fornire informazioni accurate e pertinenti. Tuttavia, raccomandiamo ai lettori di verificare personalmente i fatti e di consultare un professionista prima di prendere una decisione sulla base di questo contenuto.