Lo studio inquietante indica che un’ampia percentuale della popolazione non è in grado di distinguere tra suono generato dall’uomo e generato dall’intelligenza artificiale.
Con i progressi dell’intelligenza artificiale, anche i criminali informatici stanno approfittando della situazione per rinnovare molte delle loro truffe, una delle quali è impersonare alcuni dei nostri parenti usando suoni.
Lo fanno grazie ai suoni generati da intelligenza artificialeE, peggio di tutto, ci sono un sacco di persone là fuori che semplicemente non sanno come distinguere l’audio reale, e questo può essere un problema.
Infatti per questo studio Finito Da Kimberly May dell’University College di Londra, ha utilizzato un algoritmo di sintesi vocale addestrato su due serie di dati e ha dimostrato che gli esseri umani partecipanti erano in grado di rilevare il parlato generato dall’intelligenza artificiale solo del 73%.
Per giungere alla conclusione, sono stati generati 50 campioni di voci false, sia in inglese che in cinese mandarino, per determinare se gli esseri umani potessero riconoscere i suoni falsi.
Hanno partecipato 529 persone che hanno ascoltato un vero oratore leggere frasi generiche in inglese o cinese mandarino, ma intervallate da frasi generate dall’intelligenza artificiale.
Il primo gruppo ha ascoltato 20 campioni audio nella propria lingua madre e ha dovuto decidere se fossero veri o falsi, con i partecipanti che hanno scelto il corretto il 73% delle volte.
È stato molto più facile per il secondo gruppo, che ha ascoltato 20 coppie di clip audio, una parlata da un essere umano e l’altra da un’intelligenza artificiale, e ha dovuto scegliere quale delle due clip fosse la clip AI. In questo caso, sono stati in grado di rilevare l’IA per l’85% delle volte.
Il secondo caso è stato molto più semplice, al partecipante sono state date due opzioni comparabili e quindi il punteggio di successo è stato più alto.
Ma il primo caso è allarmante, in quanto solo il 73% è stato in grado di rilevare il suono generato dall’IA.
È chiaro che quando i partecipanti sono stati addestrati a riconoscere le caratteristiche dei suoni generati dall’intelligenza artificiale, sono stati in grado di aumentare il loro tasso di successo.
“Nel nostro studio, abbiamo dimostrato che addestrare le persone a individuare i deepfake non è necessariamente un modo affidabile per aiutarle a migliorare. Sfortunatamente, i nostri esperimenti mostrano anche che anche i rilevatori automatici sono inaffidabili in questo momento.disse Mai.
“Sono davvero bravi a individuare i deepfake se vedono esempi simili durante la fase di addestramento, se l’oratore è lo stesso o se le clip sono state registrate in un ambiente audio simile, ad esempio. Ma non è affidabile quando ci sono cambiamenti nelle condizioni del test del suono, come un altoparlante diverso.“, Aggiungere.
Va tenuto presente che per condurre questo studio sono stati utilizzati algoritmi relativamente vecchi, tutt’altro Algoritmi Algoritmi esistenti e sono molto più accurati, quindi i risultati con gli algoritmi attuali potrebbero essere più allarmanti.
“Educatore generale della birra. Pioniere del caffè per tutta la vita. Sostenitore certificato di Twitter. Fanatico di Internet. Professionista dei viaggi.”