OpenAI continua a sorprendere tutti con innovazioni che ridefiniscono il concetto di intelligenza artificiale, e questa volta hanno alzato notevolmente l’asticella. Stiamo parlando delle ultime due novità dell’azienda di Sam Altman, il nuovo modello o3 e o3-mini di ChatGPT e l’attesissimo rilascio di Sora AI. Andiamo a scoprire passo per passo di cosa si tratta.
ChatGPT o3 e o3-mini: tutto quello che devi sapere
I nuovi modelli ChatGPT o3 ed o3-mini, sono l’ultima trovata di Open AI, usciranno entro fine Gennaio e sono i successori dei precedenti modelli o1 e o1-mini. Sono stati progettati per superare i limiti dei suoi predecessori, migliorando prestazioni, accessibilità e flessibilità. Secondo quanto detto da Sam Altman (CEO dell’azienda), i nuovi modelli saranno vicini al concetto di AGI (Artificial General Intelligence), ovvero una super intelligenza artificiale. Non a caso, sono stati addestrati utilizzando il reinforcement learning, che permette alla macchina di ragionare prima di fornire un output.
Cosa fanno i nuovi modelli o3
Rispetto ai suoi predecessori, o3 introduce un netto miglioramento in ambiti quali la matematica, la scienza e la programmazione, oltre che una migliore capacità di elaborazione di informazioni e di verifica dei fatti. Tuttavia, va detto che queste elevate prestazioni sono più adatte ad usi tecnici e specifici, piuttosto che al normale utilizzo generico che facciamo tutti i giorni.
ChatGPT o3 rappresenta comunque un gigantesco passa in avanti per l’intelligenza artificiale grazie alla sua capacità incredibile di ragionare prima di rispondere. Questo, oltre ovviamente a migliorare la qualità degli output permette a ChatGPT di affrontare problemi logici complessi con maggiore affidabilità. Parlando di dati, nessun modello supera il 2% dei problemi matematici con il test Frontier Math di EpochAI, mentre o3 è stato in grado di raggiungere il 25,2%.
C’è da dire che questa capacità di ragionamento migliorata comporta dal suo canto un aumento di latenza, però che dire, il gioco vale la candela.
La versione o3-mini, invece, si presenta come una variante ridotta e ottimizzata per attività specifiche. Pur avendo capacità inferiori rispetto al modello o3 standard, è stata progettata per offrire un compromesso ideale tra efficacia e consumo di risorse, rendendola particolarmente utile in contesti con limitazioni computazionali. Questa distinzione tra i due modelli riflette l’approccio strategico di OpenAI, che mira a diversificare le applicazioni dell’intelligenza artificiale, rendendola più versatile e accessibile a un pubblico eterogeneo con esigenze operative differenti.
Un ulteriore punto di forza delle nuove versioni o3 riguarda l’integrazione di un meccanismo avanzato per la verifica delle informazioni, progettato per contrastare il fenomeno delle cosiddette “allucinazioni” dell’IA, ovvero risposte apparentemente plausibili ma errate. Sebbene non si tratti di una soluzione definitiva a questo problema, il sistema rappresenta un passo avanti significativo. Tuttavia, l’adozione di questo processo di validazione implica un maggiore tempo di elaborazione rispetto ai modelli privi di ragionamento integrato. Nonostante ciò, i primi test indicano che o3 offre prestazioni eccezionali in ambiti come la matematica e le scienze, superando di gran lunga il modello precedente e fissando nuovi parametri di riferimento per il settore.
Sora AI: come funziona
È da mesi che si parla di Sora AI, il modello di generazione video sviluppato da OpenAI, progettato per trasformare input testuali e visivi in nuovi contenuti video. Tutto ciò ora è realtà, perché il colosso dell’IA ha rilasciato ufficialmente Sora agli utenti che pagano l’abbonamento, anche se al momento ha ristretto l’accesso all’Europa.
L’interfaccia è estremamente essenziale, oltre ad una serie di video esempio, possiamo digitare prompt e scegliere:
- Il formato del video
- Risoluzione
- Durata
- Numero di video da generare
- Preset vari (che contengono anche gli effetti che vogliamo nel nostro video)
- Immagini o video da aggiungere come modello di base
Una volta che il video è generato, si ha la possibilità di intervenire su alcuni parametri:
- Modificare il prompt
- Modificare la storyboard del video
- Tagliare il video
- Indicare segmenti del video da sostituire (verrà rigenerato il video da capo)
Dai primi esempi che si possono trovare online, si può dedurre che affidarsi ad un mero prompt è abbastanza vincolante per quanto riguarda la qualità degli output, è quindi opportuno, ovviamente, sperimentare il più possibile per raggiungere un risultato pienamente soddisfacente.
Inoltre, come dichiarato anche da Open AI, al momento Sora presenta dei limiti come, ad esempio, una fisica non del tutto realistica e delle difficoltà con azioni lunghe e complesse.
Infine, se ve lo steste chiedendo, si, i contenuti di Sora sono identificabili. I video creati infatti, integrano la tecnologia C2PA, che aggiunge metadati utili per identificarli come realizzati tramite Sora, consentendo di risalire facilmente alla loro origine quando necessario. Oltre a includere filigrane visibili, è disponibile un sistema di verifica che permette di confermare se il video è stato generato effettivamente con lo strumento di OpenAI.
Conclusione
Iniziamo dunque il nuovo anno con due novità enormi nel mondo dell’intelligenza artificiale, ora non ci resta che attendere per iniziare a smanettarci, noi non vediamo l’ora.
Alla prossima!