Parigi, Berlino e Roma promuovono modelli di fondazione “autoregolamentati” – EURACTIV.fr

La maggior parte dell’Unione Europea, Germania, Francia e Italia, stanno spingendo affinché le normative che riguardano la base della regolamentazione europea sull’arte dell’intelligence (legge sull’intelligenza artificiale) siano limitate secondo codici di conformità. , senza sanzioni, che impone l’onere di obblighi normativi, che è un documento non ufficiale di Euractiv.

La gestione dell’intelligenza artificiale è una delle principali preoccupazioni nell’approccio e nel quadro normativo per l’intelligence artistica e nella riduzione al minimo dei rischi intrinseci associati alla tecnologia. Il dossier viene aggiornato durante la fase finale del processo giuridico: i triloghi. Questi sono i giorni della Commissione, del Consiglio e del Parlamento, dopo i quali vengono emanate le disposizioni finali della legislazione.

I negoziati coinvolgono il primo dettaglio normativo sull’intelligenza artificiale al mondo da parte dell’assemblea di potere di ChatGPT, un sistema di intelligenza artificiale multiuso chiamato General Purpose AI, costruito sul potente modello di base di OpenAI, GPT-4.

Il 10 novembre, inizio del periodo di formazione di un nuovo gruppo di opposizione alla crescita della Francia, e inizio del periodo di Germania e Italia nel processo di regolazione dei modelli fondatori.

I tre grandi attori dell’UE – Francia, Germania e Italia – sono invitati alla presenza del Consiglio dell’UE, a beneficio dei triloghi basati sugli Stati membri, dalla presentazione alla l’approccio multilivello Questo è il consenso corretto del trilogo politico di ottobre.

Inoltre, il Parlamento europeo è aperto a un incontro di trilogo per segnalare che la politica è accettabile senza includere le modalità di base della legislazione. Nelle ultime settimane, la presidenza spagnola ha cercato di raggiungere un accordo tra gli eurodeputati più riluttanti e i governi europei.

Dalla fine del mese (19 novembre) è stato pubblicato un documento non ufficiale sul luogo del compromesso. Considerando l’effetto delle normative orizzontali riguardanti i fondamenti dei metodi di fondazione, l’approccio neutrale rispetto alla tecnologia e il prezzo e il conto del rischio della regolamentazione sull’intelligenza artificiale, intesa a preservare sia l’innovazione che la sicurezza.

I rischi sono inerenti all’implementazione dei sistemi di intelligenza artificiale piuttosto che alla tecnologia stessa. Le norme europee possono supportare questo approccio seguendo il nuovo quadro legislativo”indica il documento, oltre che la firma “Opposto a un approccio a due livelli ai modelli di fondazione”.

“E a causa dei metodi utilizzati per la fondazione, nuovi metodi di definizione di standard non testati e suggerimenti di installazione durante l’obbligo di autoregolamentazione secondo i codici di conformità”sul documento è scritta una parola, il che significa che i codici vengono trasmessi principi della lezione riunione finale del G7 del quadro del processo di Hiroshima.

Le regole si basano sulle norme che disciplinano l’uso dei sistemi in generale, nonché gli usi per usi secondo le definizioni, che si conformano anche alle regole delle regole secondo le regole del modello.

Per un lavoro svolto in Francia, Germania e Italia, che propone il concetto di modello come base delle tecniche di specificazione, la cui documentazione fornisce informazioni sui modelli utilizzati e utilizza un linguaggio accessibile a un vasto pubblico.

“Definizione delle tecniche e dei requisiti di specificazione del modello di fondazione costituenti l’elemento obbligatorio della presente autoregolamentazione”si noti il ​​documento ufficiale, si noti che le schede tecniche includono informazioni rilevanti sulla capacità e sui limiti della base di fondazione e sulla base delle pratiche fondamentali della comunità di concetti.

I quattro esempi di documenti ascoltati, parametri di utilizzo, usi precedenti, limiti, risultati di studi di bias e test di intrusione per una valutazione continua della sicurezza.

Il documento non ufficiale propone che l’organismo di governance dell’IA contribuisca al lavoro di laboratorio di guida e verifica dell’uso delle tecniche di specifica e fornisce un metodo semplice per segnalare le violazioni attraverso la guida del codice.

“Per motivi di trasparenza, è probabile che tutte le violazioni vengano pubblicate pubblicamente dalle autorità”documento preciso.

Tutti e tre pagano molto, ma all’inizio vengono applicate anche delle penalità. Secondo loro, un regime di sanzioni verrebbe istituito solo dopo ripetute violazioni dei codici di condotta e dopo un’analisi. ” adeguata “ e una valutazione dell’impatto dei guasti identificati.

Parigi, Berlino e Roma costituiscono la base degli standard europei per l’uso di apparecchiature che garantiscono la conformità agli standard europei e la preparazione per i futuri sviluppi tecnologici.

L’approccio del modello di base del centro di discussione di gruppo“Telecomunicazioni e società dell’informazione”, organo tecnico del Consiglio dell’UE, martedì (21 novembre). Il primo giorno degli eurodeputati durante la riunione interna, durante la cena con il presidente del Consiglio europeo e della Commissione europea.

“[Ce document]è una dichiarazione di garanzia »dichiarazione di un rappresentante del Parlamento a EURACTIV, a condizione di anonimato.

Alberto Gabriele

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *