venerdì, Novembre 15, 2024

Deve leggere

Articoli correlati

I suoi creatori hanno appena lanciato Stable Video Diffusion

Nell’agosto 2022, quattro mesi dopo l’entrata in beta di DALL·E 2 di OpenAI, Stability AI ha introdotto la funzionalità Stable Diffusion. Lungi dall’essere notato, il modello era fatto Un luogo importante Nel mondo emergente dell’intelligenza artificiale generativa grazie alla sua straordinaria capacità di creare immagini in diversi stili artistici e, principalmente, concetti astratti.

Ora, il team di Stable Diffusion ha introdotto un nuovo modello. Non generare immagini, ma video. Stable Video Diffusion promette di espandere l’ecosistema del modello Stability AI portando le funzionalità di creazione di immagini fisse alle immagini in movimento. Vediamo cosa ci offrirà questa proposta.

Modello di generazione video AI stabile

Il modello di generazione video Stability AI funzionerà secondo gli stessi meccanismi del generatore di immagini. Gli utenti devono Inserisci la richiesta Descrive cosa dovrebbe generare il modello, quindi più dettagliate sono le istruzioni, più accurato sarà il risultato. Il contenuto arriverà in un video clip tra 3 e 30 fotogrammi al secondo.

Il modello di creazione video Stability AI funzionerà secondo gli stessi meccanismi dei suoi equivalenti Meta chiamati Emu. Gli utenti devono inserire un messaggio che dettaglia cosa desiderano creare nello specifico. Prima verrà creata l’immagine e poi animata. Il risultato saranno brevi video con una risoluzione di 576 x 1024 tra 3 e 30 fotogrammi al secondo.

L’azienda ha scelto anche la diversificazione. Dice che il modello può facilmente adattare compiti successivi come Sintesi multiprospettiva Da una singola immagine con messa a punto per set di dati multivista. In questo senso, sottolineano che il modello potrebbe essere utile in un’ampia gamma di settori, tra cui la pubblicità, l’istruzione e l’intrattenimento.

READ  GOG offre cinque giochi per PC per i suoi saldi invernali, con oltre 6.000 sconti

Come altri modelli di intelligenza artificiale generativa, Stable Video Diffusion è disponibile su base limitata. Ciò significa che non è di facile accesso. Tuttavia, ci sono due modi per testarlo: eseguirlo localmente utilizzando i file Disponibile su GitHub E Abbraccio al viso Anche Iscriviti alla lista d’attesa Per accedere all’interfaccia web.

Stiamo assistendo in prima persona all’evoluzione dell’intelligenza artificiale generativa. Solo due anni fa i modelli fotografici non erano disponibili Per il grande pubblico I suoi risultati, rispetto a quelli odierni, erano molto primitivi. Al giorno d’oggi, chiunque può accedervi e ha una qualità sorprendente.

Elon Musk, Andalucía Directo e la crisi OpenAI hanno qualcosa di inaspettatamente in comune: El Risitas

E la creazione di video utilizzando l’intelligenza artificiale sembra seguire lo stesso percorso. Attualmente non è ampiamente disponibile e i risultati hanno molto margine di miglioramento. In che misura si svilupperà nei prossimi mesi? La buona notizia è che saremo qui per scoprirlo e da oggi potremo provare gli strumenti a nostra disposizione.

Immagini: stabilizzazione AI

A Chataka: Siamo un po’ più vicini all’era post-schermo. La domanda è se vogliamo davvero arrivarci.