Sora, la nuova applicazione dell'Intelligenza Artificiale che permette la creazione di filmati partendo da stringhe scritte, non è stata ancora rilasciata al pubblico, nemmeno in versione di prova, perché OpenAI, tra le varie cose, deve ancora capire come proteggerla da eventuali problemi dovuti alla produzione di video falsi, fatti passare per veri.
Proprio per questo l'organizzazione ha affermato che verranno coinvolti politici, educatori ed artisti per "comprendere le preoccupazioni e identificare casi d'uso positivi per questa nuova tecnologia".
Un primo importante contributo dovrebbe arrivare dalle etichette a cui sta lavorando il consorzio C2pa, di cui fanno parte OpenAI ma anche la Bbc e il New York Times. La possibilità è l'inserimento di dati aggiuntivi che evidenzino l'eventuale creazione di un file tramite IA e bloccarne la diffusione online, qualora vengano violate norme condivise.
Inoltre, è la stessa OpenAI a sollevare polemiche affermando che "nonostante ricerche e test approfonditi non è possibile prevedere tutti i modi positivi in cui le persone utilizzeranno la nostra tecnologia, né come ne abuseranno".
Qualche giorno fa Google aveva lanciato "Lumiere", una piattaforma di Intelligenza Artificiale che crea filmati ma in questo caso partendo da immagini caricate dall'utente.
Sora non è il primo modello di questo tipo ma è finora l'unico a poter generare un filmato lungo fino a 60 secondi. Inoltre, l'IA può realizzare interi video simulando la presenza di più videocamere, garantendo che i soggetti rimangano gli stessi anche quando escono brevemente dalla vista.
Davide Fifaco