OpenAI dà il primo sguardo a Sora, uno strumento di intelligenza artificiale che crea video da una sola riga di testo. Il più recente modello di intelligenza artificiale di OpenAI genera video da prompt che, affermano, “interpretano accuratamente gli oggetti e generano personaggi convincenti che esprimono emozioni vibranti”. Tuttavia, lo strumento è stato accolto con scetticismo e preoccupazione per possibili abusi..
OpenAI ha condiviso un primo sguardo a un nuovo strumento che genera istantaneamente video da una sola riga di testo.
Chiamato Sora dal termine giapponese per “cielo”, lo strumento di OpenAI segna l’ultimo passo avanti della società di intelligenza artificiale, mentre Google, Meta e la startup Runway ML lavorano su modelli simili.
La società dietro ChatGPT ha affermato che il modello di Sora comprende come gli oggetti “esistono nel mondo fisico” e può “interpretare accuratamente gli oggetti e generare personaggi convincenti che esprimono emozioni vibranti”. Negli esempi pubblicati sul loro sito web, OpenAI ha mostrato diversi video generati da Sora “senza modifiche”. Un video ha mostrato una donna fotorealistica che cammina lungo una strada piovosa di Tokyo. I prompt includevano che lei “cammina con sicurezza e noncuranza”, che “la strada è umida e riflettente, creando un effetto specchio delle luci colorate”, e che “molti pedoni camminano”. Un altro, con il prompt “alcuni mammut lanosi giganti si avvicinano camminando attraverso un prato innevato”, ha mostrato gli animali estinti vicino a una catena montuosa sollevando neve polverizzata mentre camminavano. Un video generato dall’IA ha anche mostrato un dalmata che cammina lungo i davanzali delle finestre a Burano, in Italia, mentre un altro ha portato lo spettatore in un “tour di una galleria d’arte con molte opere d’arte in diversi stili”.
Ma il più nuovo strumento di OpenAI è stato accolto con scetticismo e preoccupazione per possibili abusi. Rachel Tobac, membro del consiglio consultivo tecnico dell’Agenzia per la Sicurezza e l’Infrastruttura Informatica (CISA) degli Stati Uniti, ha scritto su X che “dobbiamo discutere dei rischi” del modello di intelligenza artificiale. “La mia principale preoccupazione è come questo contenuto potrebbe essere usato per ingannare, manipolare, pescare e confondere il pubblico”, ha detto.
Altri hanno sollevato preoccupazioni riguardo al copyright e alla privacy, con il CEO della società no-profit Fairly Trained Ed Newton-Rex che aggiunge: “Non si può semplicemente argomentare che questi modelli non competono o non competerebbero con il contenuto su cui sono stati addestrati e con gli autori umani di quel contenuto. Su cosa è addestrato il modello? I fornitori dei dati di addestramento hanno acconsentito all’uso del loro lavoro? La totale mancanza di informazioni da parte di OpenAI su questo non ispira fiducia”.
OpenAI ha dichiarato in un post sul blog che sta collaborando con artisti, decisori politici e altri per garantire la sicurezza prima di rilasciare il nuovo strumento al pubblico. “Stiamo lavorando con red teamers – esperti di settori come la disinformazione, i contenuti odiosi e il pregiudizio – che testeranno in modo avverso il modello”, ha detto l’azienda. “Stiamo anche sviluppando strumenti per rilevare contenuti ingannevoli, come un classificatore di rilevamento che può capire quando un video è stato generato da Sora”.
Tuttavia, l’azienda ha ammesso che nonostante ricerche e test estensivi, “non possiamo prevedere tutti i modi benefici in cui le persone utilizzeranno la nostra tecnologia, né tutti i modi in cui potrebbero abusarne”. “Ecco perché crediamo che imparare dall’uso nel mondo reale sia un componente critico nella creazione e nel rilascio di sistemi AI sempre più sicuri nel tempo”, hanno aggiunto.
Sora atterrerà presto!
I progressi nella tecnologia sembrano aver superato i controlli su questi tipi di strumenti, secondo Etzioni, che crede nell’uso dell’IA per il bene e con salvaguardie in atto.
“Stiamo cercando di costruire questo aereo mentre lo stiamo pilotando, e atterrerà a novembre se non prima, e non abbiamo la Federal Aviation Administration, non abbiamo la storia e non abbiamo gli strumenti necessari per farlo,” ha detto.
Tutto ciò che impedisce al tool di diventare ampiamente disponibile è l’azienda stessa, ha detto Etzioni, aggiungendo di essere sicuro che Sora, o una tecnologia simile da un concorrente di OpenAI, sarà rilasciata al pubblico nei prossimi mesi.
Naturalmente, qualsiasi cittadino ordinario può essere vittima di una truffa deepfake, oltre alle celebrità.
“E Sora renderà ancora più facile per attori malintenzionati generare deepfake video di alta qualità, e darà loro una maggiore flessibilità per creare video che potrebbero essere utilizzati a scopi offensivi,” ha detto il dottor Andrew Newell, chief scientific officer della società di verifica dell’identità, iProov, a CBS MoneyWatch.
Questo pone l’onere sulle organizzazioni, come le banche, di sviluppare i propri strumenti basati sull’IA per proteggere i consumatori dalle minacce potenziali.
Le banche che si affidano alle misure di sicurezza dell’autenticazione video sono le più esposte, ha aggiunto.
Le capacità del tool sono più strettamente legate alle competenze dei lavoratori nella creazione di contenuti, inclusa la produzione cinematografica, media e altro ancora.
“Gli attori vocali o le persone che creano brevi video per videogiochi, scopi educativi o pubblicitari saranno i più immediatamente colpiti,” ha detto.
“Per professioni come il marketing o la creatività, i modelli multimodali potrebbero rivoluzionare il gioco e potrebbero creare significativi risparmi di costi per i produttori di film e televisione, e potrebbero contribuire alla proliferazione dei contenuti generati dall’IA piuttosto che utilizzare attori,” ha detto Reece Hayden, analista senior presso ABI Research, una società di intelligence tecnologica, a CBS MoneyWatch.
Dato che rende più facile per chiunque – anche per coloro senza abilità artistiche – creare contenuti visivi, Sora potrebbe consentire agli utenti di sviluppare media in stile “scegli la tua avventura”.