martedì, Settembre 17, 2024

Deve leggere

Articoli correlati

Secondo quanto riferito, OpenAI ha sciolto il suo team per il rischio esistenziale dell’IA

Secondo quanto riferito, il team Super Alignment di OpenAI, incaricato di monitorare il rischio esistenziale del sistema super-AI, si è sciolto. Cavi Venerdì. Questa notizia arriva pochi giorni dopo che i fondatori del team, Ilya Sutskever e Jan Laiki, hanno annunciato… Lasciare l’azienda allo stesso tempo.

Wired riferisce che il team Super Alignment di OpenAI, lanciato per la prima volta nel luglio 2023 per impedire che le future super-IA diventino canaglia, non esiste più. Il rapporto rileva che il lavoro del gruppo sarà assorbito da altri sforzi di ricerca su OpenAI. La ricerca sui rischi associati a tecnologie e modelli di intelligenza artificiale più potenti sarà ora condotta dal cofondatore di OpenAI John Shulman, ha riferito Wired. Sutskever e Leike erano scienziati senior di OpenAI concentrati sui rischi dell’intelligenza artificiale.

Pubblicato come a Filetto lungo in X Friday spiega in modo ambiguo perché ha lasciato OpenAI. Dice che è da tempo in conflitto con la leadership di OpenAI sui valori fondamentali, ma questa settimana ha raggiunto un punto di rottura. Laiki ha osservato che il team di Superaligment stava “navigando controvento”, lottando per ottenere abbastanza potenza di calcolo per condurre importanti ricerche. Crede che OpenAI debba concentrarsi maggiormente sulla sicurezza, sulla protezione e sull’allineamento.

“Al momento, non abbiamo una soluzione per guidare o controllare l’intelligenza artificiale super-intelligente e impedirle di diventare canaglia”, ha affermato il team di Superalignment in un post sul blog OpenAI. Rilasciato a luglio. “Ma gli esseri umani non saranno in grado di supervisionare in modo affidabile i sistemi di intelligenza artificiale più intelligenti di noi, e quindi le nostre attuali tecniche di allineamento non lo faranno. Passare alla superintelligenza. Abbiamo bisogno di nuovi sviluppi scientifici e tecnici.”

READ  Airbus completa la progettazione del drone Sirtap per la Spagna

Ora non è chiaro se verrà prestata la stessa attenzione a questi sviluppi tecnici. Ci sono sicuramente altri team in OpenAI che si concentrano sulla sicurezza. Il team di Schulman, che si dice gestisca le responsabilità del Superallineamento, è attualmente responsabile della messa a punto dei modelli di intelligenza artificiale dopo l’addestramento. Tuttavia, Superalignment si è concentrato specificamente sulle conseguenze più gravi dell’IA canaglia. Come ha sottolineato ieri Gizmodo, molti dei sostenitori più accesi di OpenAI per la sicurezza dell’IA lo hanno fatto Si è dimesso o è stato licenziato Negli ultimi mesi.

All’inizio di quest’anno, il gruppo ha pubblicato un documento fondamentale su… Controlla modelli AI di grandi dimensioni con modelli AI più piccoliÈ considerato un primo passo verso il controllo di sistemi di intelligenza artificiale altamente intelligenti. Non è chiaro chi farà i prossimi passi in questi progetti presso OpenAI.

OpenAI non ha risposto immediatamente alla richiesta di commento di Gizmodo.

La startup AI di Sam Altman è stata lanciata questa settimana con Presentazione di GPT-4 Omni, l’ultimo modello di punta dell’azienda caratterizzato da risposte a latenza ultra bassa che sembravano più umane che mai. Molti dipendenti di OpenAI hanno commentato che The Last Model of AI era più vicino che mai a qualcosa di fantascientifico, in particolare a un film. per lui.

Questo contenuto è stato tradotto automaticamente dall’articolo originale. A causa delle sfumature della traduzione automatica, potrebbero esserci lievi differenze. Per la versione originale, clicca qui.