I paesi del G7 sono pronti a stabilire un “codice di condotta” volontario per le aziende che sviluppano sistemi di intelligenza artificiale (AI) all’avanguardia. Questa iniziativa, derivante dal “Processo AI di Hiroshima”, mira a combattere potenziali abusi e rischi legati a questa tecnologia rivoluzionaria.
Il G7, composto da Canada, Francia, Germania, Italia, Giappone, Regno Unito, Stati Uniti e Unione Europea, ha avviato questo processo per dare l’esempio in materia di governance dell’IA.
Il codice di condotta per l’IA
Alla luce delle crescenti preoccupazioni sulla privacy e sui rischi per la sicurezza il codice di condotta in 11 punti un barlume di speranza. Secondo un documento del G7, questo codice di condotta mira a:
“Promuovere un’IA sicura e affidabile in tutto il mondo e fornire linee guida volontarie per le azioni delle organizzazioni che sviluppano i sistemi di IA più avanzati”.
Il codice incoraggia le aziende a identificare, valutare e mitigare i rischi durante tutto il ciclo di vita dell’IA. Inoltre, il codice raccomanda di riferire pubblicamente sulle capacità, i limiti e gli usi dell’intelligenza artificiale, con una forte enfasi su solide misure di sicurezza.
Vera Jourova, responsabile degli affari digitali presso la Commissione Europea, ha dichiarato ad un forum sulla governance di Internet:
“Un codice di condotta fornisce una solida base per garantire la sicurezza e fungerà da porta d’accesso alla regolamentazione, in attesa di ulteriori leggi. »
Il team di preparazione OpenAI
OpenAI, la società dietro ChatGPT, ha anche creato un team di preparazione per affrontare i rischi legati ai modelli di intelligenza artificiale. Questo team, guidato da Aleksander Madry, affronterà questioni quali le convinzioni personalizzate, le minacce alla sicurezza informatica e la diffusione della disinformazione.
L’iniziativa rappresenta il contributo di OpenAI al prossimo vertice internazionale sull’intelligenza artificiale nel Regno Unito e riflette la richiesta globale di sicurezza e trasparenza nello sviluppo della tecnologia AI.
Il governo del Regno Unito definisce l’“AI di frontiera” come segue:
“Modelli di IA generici altamente avanzati in grado di eseguire un’ampia gamma di compiti e di eguagliare o superare le capacità dei modelli più avanzati di oggi.”
L’OpenAI Readiness Team si concentrerà sulla gestione di questi rischi, rendendo ancora più urgente la necessità di un codice di condotta globale sull’intelligenza artificiale.
Mentre lo sviluppo dell’IA continua, gli sforzi proattivi del G7 e l’impegno di OpenAI nella gestione del rischio dimostrano una risposta tempestiva. Il “codice di condotta” volontario e la creazione di un gruppo di preparazione dedicato sono passaggi cruciali per sfruttare il potere dell’intelligenza artificiale in modo responsabile, con l’obiettivo di massimizzare i benefici e gestire efficacemente i potenziali rischi.