OpenAI lancia GPT-5.5, intelligenza agentica e automazione computer

3 ore fa 2

Il rilascio di GPT-5.5 segna un passaggio verso modelli capaci di utilizzare autonomamente il computer, gestire flussi di lavoro complessi e ottimizzare l'efficienza nel coding e nella ricerca scientifica

Il nuovo modello GPT-5.5, annunciato nella tarda serata di ieri, si distingue, secondo le indicazioni di OpenAI, per la capacità di interpretare obiettivi complessi e frammentati, pianificando ed eseguendo task che richiedono l'uso coordinato di più strumenti digitali. A differenza delle iterazioni precedenti, il sistema è in grado di navigare interfacce, inserire dati e correggere i propri errori in itinere, riducendo la necessità di una supervisione costante fase per fase.

CTA

Prestazioni nel coding e nell'uso del computer

Le analisi condotte su benchmark standardizzati evidenziano risultati di rilievo nell'ambito dello sviluppo software. Su Terminal-Bench 2.0, che valuta flussi di lavoro via riga di comando, il modello ha raggiunto un'accuratezza dell'82,7%. Nel test SWE-Bench Pro, focalizzato sulla risoluzione di problemi reali su GitHub, il sistema risolve il 58,6% dei compiti in un unico passaggio.

Questa efficacia operativa si estende al "computer use": il modello può osservare lo schermo, digitare e interagire con i software con una precisione che ne consente l'impiego in ambiti quali l'analisi finanziaria e la ricerca operativa. Secondo i dati di Artificial Analysis, il sistema offre prestazioni avanzate a circa la metà del costo rispetto ai modelli concorrenti della stessa categoria, grazie a una gestione più efficiente dei token.

Applicazioni aziendali e ricerca scientifica

L'adozione interna della tecnologia ha già mostrato impatti misurabili. Nel settore finance, l'automazione della revisione di migliaia di moduli fiscali ha permesso di accelerare i tempi di esecuzione di due settimane. Nel marketing e nella comunicazione, agenti automatizzati gestiscono ora flussi di richieste dati complessi, filtrando autonomamente i casi a basso rischio e delegando ai supervisori umani solo le eccezioni critiche.

In ambito scientifico, i progressi sono evidenti in GeneBench, un test per l'analisi di dati genetici e biologia quantitativa. Il modello dimostra una maggiore persistenza nei cicli di ricerca che includono la raccolta di prove, il test delle assunzioni e l'interpretazione di risultati statistici complessi, compiti che normalmente richiederebbero diversi giorni di lavoro per esperti umani.

Efficienza e protocolli di sicurezza

Nonostante l'aumento della complessità del modello, la latenza per token rimane in linea con le versioni precedenti (GPT-5.4), garantendo una velocità di risposta compatibile con l'uso professionale intensivo.

Il rilascio è accompagnato da un framework di sicurezza aggiornato. Il modello è stato sottoposto a test mirati per prevenire abusi in ambiti sensibili come la cybersicurezza e la biologia, avvalendosi del feedback di circa 200 partner esterni. Attualmente, la tecnologia è in fase di distribuzione per gli utenti Plus, Pro e Business, mentre l'accesso tramite API verrà esteso nel prossimo futuro, una volta finalizzati i protocolli di sicurezza specifici per le integrazioni su larga scala.

Disponibilità, Piani e Costi API

La distribuzione di GPT-5.5 è attualmente in corso per gli utenti Plus, Pro, Business ed Enterprise all'interno di ChatGPT e Codex. In particolare, la funzione "GPT-5.5 Thinking" è accessibile a tutti i livelli di abbonamento a pagamento, mentre la versione GPT-5.5 Pro, ottimizzata per task ad altissima precisione, è riservata agli utenti Pro, Business ed Enterprise.

Per quanto riguarda l'integrazione per gli sviluppatori, le API di gpt-5.5 saranno presto disponibili con una finestra di contesto di 1 milione di token. Il modello standard avrà un costo di $5 per 1 milione di token in input e $30 per l'output. La versione più avanzata, gpt-5.5-pro, sarà prezzata rispettivamente a $30 e $180 per milione di token. Sono previste opzioni di elaborazione "Priority" (a 2.5x del costo) e tariffe "Batch" dimezzate per processi non urgenti.

In ambiente Codex, il modello supporta una finestra di contesto da 400.000 token ed è disponibile anche in modalità "Fast", che incrementa la velocità di generazione del 50%. Sebbene i costi nominali siano superiori rispetto alla versione GPT-5.4, l'architettura è stata ottimizzata per essere sensibilmente più efficiente: il sistema richiede infatti un numero inferiore di token e di tentativi per completare correttamente lo stesso compito, bilanciando l'investimento economico con una maggiore efficacia operativa.

Leggi l’intero articolo