OpenAI ha introdotto una nuova
risorsa online, il "Safety Evaluations Hub", con l'obiettivo di
condividere pubblicamente dati e approfondimenti sulle
performance di sicurezza dei suoi modelli di intelligenza
artificiale. Questa iniziativa mira a fornire trasparenza su
aspetti cruciali come i tassi di allucinazioni dei modelli, la
loro tendenza a generare contenuti dannosi, l'accuratezza con
cui seguono le istruzioni e la loro resilienza ai tentativi di
violazione. L'azienda sottolinea che questo nuovo hub
rappresenta un passo avanti verso una maggiore apertura, in un
momento in cui si trova ad affrontare diverse sfide legali,
incluse quelle per presunto utilizzo illecito di materiale
protetto da copyright per addestrare i propri modelli. Il
"Safety Evaluations Hub" è concepito per espandere le
informazioni già disponibili nelle schede di sistema di OpenAI.
Mentre queste offrono un'istantanea delle misure di sicurezza di
un modello al momento del lancio, l'hub è progettato per fornire
aggiornamenti continui. In una nota ufficiale, OpenAI ha
dichiarato di voler 'condividere i progressi nello sviluppo per
misurare la capacità e la sicurezza dei modelli'. L'intento è
duplice: da un lato facilitare la comprensione delle prestazioni
dei sistemi e dall'altro aumentare gli sforzi collettivi per
incrementare la trasparenza nel settore. L'azienda ha anche
espresso l'intenzione di lavorare per una comunicazione più
proattiva in questo ambito a tutti i livelli. All'interno
dell'hub, gli utenti interessati possono esplorare diverse
sezioni dedicate, trovando informazioni pertinenti per vari
modelli, da Gpt-4.1 fino alle versioni più recenti, come la 4.5.
Riproduzione riservata © Copyright ANSA