Nell’agosto 2022, quattro mesi dopo l’entrata in beta di DALL·E 2 di OpenAI, Stability AI ha introdotto la funzionalità Stable Diffusion. Lungi dall’essere notato, il modello era fatto Un luogo importante Nel mondo emergente dell’intelligenza artificiale generativa grazie alla sua straordinaria capacità di creare immagini in diversi stili artistici e, principalmente, concetti astratti.
Ora, il team di Stable Diffusion ha introdotto un nuovo modello. Non generare immagini, ma video. Stable Video Diffusion promette di espandere l’ecosistema del modello Stability AI portando le funzionalità di creazione di immagini fisse alle immagini in movimento. Vediamo cosa ci offrirà questa proposta.
Modello di generazione video AI stabile
Il modello di generazione video Stability AI funzionerà secondo gli stessi meccanismi del generatore di immagini. Gli utenti devono Inserisci la richiesta Descrive cosa dovrebbe generare il modello, quindi più dettagliate sono le istruzioni, più accurato sarà il risultato. Il contenuto arriverà in un video clip tra 3 e 30 fotogrammi al secondo.
Il modello di creazione video Stability AI funzionerà secondo gli stessi meccanismi dei suoi equivalenti Meta chiamati Emu. Gli utenti devono inserire un messaggio che dettaglia cosa desiderano creare nello specifico. Prima verrà creata l’immagine e poi animata. Il risultato saranno brevi video con una risoluzione di 576 x 1024 tra 3 e 30 fotogrammi al secondo.
L’azienda ha scelto anche la diversificazione. Dice che il modello può facilmente adattare compiti successivi come Sintesi multiprospettiva Da una singola immagine con messa a punto per set di dati multivista. In questo senso, sottolineano che il modello potrebbe essere utile in un’ampia gamma di settori, tra cui la pubblicità, l’istruzione e l’intrattenimento.
Come altri modelli di intelligenza artificiale generativa, Stable Video Diffusion è disponibile su base limitata. Ciò significa che non è di facile accesso. Tuttavia, ci sono due modi per testarlo: eseguirlo localmente utilizzando i file Disponibile su GitHub E Abbraccio al viso Anche Iscriviti alla lista d’attesa Per accedere all’interfaccia web.
Stiamo assistendo in prima persona all’evoluzione dell’intelligenza artificiale generativa. Solo due anni fa i modelli fotografici non erano disponibili Per il grande pubblico I suoi risultati, rispetto a quelli odierni, erano molto primitivi. Al giorno d’oggi, chiunque può accedervi e ha una qualità sorprendente.
E la creazione di video utilizzando l’intelligenza artificiale sembra seguire lo stesso percorso. Attualmente non è ampiamente disponibile e i risultati hanno molto margine di miglioramento. In che misura si svilupperà nei prossimi mesi? La buona notizia è che saremo qui per scoprirlo e da oggi potremo provare gli strumenti a nostra disposizione.
Immagini: stabilizzazione AI
A Chataka: Siamo un po’ più vicini all’era post-schermo. La domanda è se vogliamo davvero arrivarci.
“Evangelista di zombie dilettante. Creatore incurabile. Orgoglioso pioniere di Twitter. Appassionato di cibo. Internetaholic. Hardcore introverso.”