In un documento congiunto, i tre paesi descrivono come mirano a un sistema di autoregolamentazione incentrato sull’applicazione, ma non sulla tecnologia.
I tre paesi hanno concordato una serie di regole di base che molto probabilmente verranno utilizzate nella prossima legislazione europea sull’IA. Reuters ha già potuto consultare tale documento e rileva che esso si basa principalmente su un’autoregolamentazione obbligatoria con codici di condotta per i modelli di IA. Allo stesso tempo, si oppone all’idea che l’intelligenza artificiale venga misurata rispetto a “standard non testati”.
Un altro punto degno di nota è che non sono previste sanzioni se qualcosa va storto. Almeno inizialmente, quando si verificano violazioni dei codici di condotta, si levano voci per chiedere l’introduzione di un tale sistema di sanzioni.
Le regole sviluppate dai tre paesi evidenziano anche cosa può andare storto con un’applicazione AI. Non con la tecnologia sottostante. Ciò probabilmente significa che il creatore di un modello linguistico di intelligenza artificiale non deve necessariamente controllare ciò che gli altri costruiscono con esso, ma chiunque crei un’applicazione basata su tale modello linguistico deve seguire determinate regole.
Infine, ci saranno anche “schede modello” per i modelli IA di base. Questi contengono informazioni su come funziona il modello e cosa è possibile e cosa no. I dettagli non sono ancora stati determinati, ma il documento spera di ottenere le migliori pratiche dalla comunità degli sviluppatori.