lunedì, Dicembre 16, 2024

Deve leggere

Articoli correlati

ChatGPT ora può imitare i suoni senza l’autorizzazione dell’utente

OpenAI Ha presentato un rapporto che descrive in dettaglio i rischi associati al suo ultimo modello linguistico, GPT-4o, secondo le informazioni pubblicate Bordo.

Questo rapporto è noto come Scheda di sistemaevidenzia i progressi tecnici raggiunti con la nuova versione del modello, ma avverte anche di alcuni rischi, soprattutto in merito Imitazione di suoni.

Una delle situazioni che ha sollevato maggiore preoccupazione è la capacità della modalità vocale avanzata di GPT-4o di imitare le voci umane senza il consenso degli utenti.

Questa funzionalità, progettata per migliorare l’esperienza dell’utente consentendo l’interazione con ChatGPT tramite comandi vocali, ha dimostrato durante i test che il modello può replicare la voce dell’utente quasi esattamente, anche senza chiedere conferma.

Ars Tecnicaun punto vendita di tecnologia, ha documentato un caso durante i test in cui un utente, dopo aver emesso un comando vocale accompagnato da “No!”, ha ricevuto una risposta da ChatGPT che imitava la sua voce in modo allarmante.

Il rapporto OpenAI mette in guardia anche sulla capacità di GPT-4o di generare non solo voci umane, ma anche effetti sonori e musica.

Relativo a: OpenAI ha interrotto l’uso di una delle voci GPT-4o a causa della sua somiglianza con la voce di Scarlett Johansson

Tuttavia, OpenAI ha implementato misure per mitigare questi rischi. Secondo il rapporto, il rischio di trascrizione audio involontaria è “minimo” grazie alle protezioni integrate nel sistema.

Inoltre, l’azienda ha limitato la capacità del modello di generare voci, limitandola a quelle create in collaborazione con doppiatori professionisti. Questa decisione mira a ridurre la possibilità che il sistema imiti i voti senza licenza.

READ  Come liberare spazio su WhatsApp

Questa situazione, che OpenAI ha classificato come di gravità moderata, mostra come i progressi nell’intelligenza artificiale possano migliorare molti settori, ma anche generare problemi e preoccupazioni che in alcuni casi sembrano oltre il controllo umano.

Relativo a: I deepfake inizieranno nel 2024. Ecco come affrontare il crescente panorama delle minacce legate all’intelligenza artificiale