In sintesi
- I ricercatori dell’Università ETH di Zurigo hanno utilizzato l’intelligenza artificiale per risolvere il 100% dei CAPTCHA generati da reCAPTCHAv2 di Google, utilizzando un numero di tentativi simile a quello degli utenti umani.
- I risultati, pubblicati il 13 settembre, suggeriscono che le tecniche di intelligenza artificiale esistenti possono sfruttare i CAPTCHA basati su immagini.
- Gli esperti di sicurezza informatica avvertono che i bot stanno diventando più intelligenti e che i CAPTCHA potrebbero dover evolversi costantemente per rimanere efficaci.
I ricercatori che utilizzano l’intelligenza artificiale hanno violato uno dei sistemi di sicurezza CAPTCHA più utilizzati, progettato per tenere i bot lontani dai siti Web determinando se un utente è un essere umano.
Utilizzando metodi avanzati di apprendimento automatico, i ricercatori dell’Università ETH di Zurigo, con sede in Svizzera, sono stati in grado di risolvere il 100% dei CAPTCHA generati dal popolare prodotto reCAPTCHAv2 di Google, utilizzando un numero di tentativi simile a quello degli utenti umani.
risultati, pubblicato Il 13 settembre, gli autori sottolineano che “le attuali tecniche di intelligenza artificiale possono sfruttare i CAPTCHA basati su immagini”.
“Questa cosa era in arrivo da un po’”, ha detto Matthew Green, assistente professore di informatica presso il Johns Hopkins Information Security Institute. “L’idea alla base dei CAPTCHA era che gli esseri umani sono più bravi dei computer a risolvere questi enigmi. Stiamo imparando che non è vero.”
CAPTCHA sta per Completely Automated Public Turing Test, progettato per distinguere tra computer e esseri umani. Il sistema utilizzato nel nuovo studio, reCAPTCHA v2 di Google, mette alla prova gli utenti chiedendo loro di identificare immagini che contengono oggetti come semafori e attraversamenti pedonali.
Sebbene il processo utilizzato dai ricercatori svizzeri per sconfiggere reCAPTCHAv2 non fosse completamente automatizzato e richiedesse l’intervento umano, un processo completamente automatizzato per aggirare i sistemi CAPTCHA potrebbe essere proprio dietro l’angolo.
“Non sarei sorpreso se ciò accadesse nel breve termine”, ha detto a Decrypt Philip Mack, capo del Cybersecurity Operations Center per una grande organizzazione governativa e professore a contratto presso la New York University.
In risposta alla crescente capacità dei bot di risolvere CAPTCHA, aziende come Google, che ha lanciato il suo prodotto reCAPTCHA di terza generazione nel 2018, stanno costantemente aumentando la sofisticazione dei loro prodotti.
“I robot diventano costantemente più intelligenti”, ha affermato Sandy Carelli, principale analista di Forrester. “Ciò che ha funzionato qualche settimana fa potrebbe non funzionare oggi.”
“I migliori giocatori migliorano costantemente perché devono farlo”, ha detto. “La svolta sta nell’individuare modelli e sviluppare le risposte giuste non solo per bloccare i bot, ma anche per rendere molto costoso per i bot andare altrove”.
Tuttavia, presentare sfide difficili da risolvere per i robot corre il rischio di aggiungere un ulteriore livello di complessità agli enigmi, che potrebbe diventare ancora più fastidioso per gli esseri umani.
Gli utenti ordinari “potrebbero dover dedicare sempre più tempo alla risoluzione dei CAPTCHA e alla fine potrebbero arrendersi”, ha affermato Mack.
Sebbene il futuro del CAPTCHA come tecnologia di sicurezza rimanga incerto, altri, tra cui Gene Tsudek, professore di informatica presso l’Università della California, Irvine, sono più pessimisti.
“reCAPTCHA e i suoi discendenti devono scomparire”, ha detto Tsudik. “Ci sono alcune altre tecnologie che sono ancora accettabili, o almeno migliori, ma non in modo drammatico. Quindi sarà comunque una corsa agli armamenti.”
Se l’uso del CAPTCHA scomparisse, potrebbero esserci conseguenze disastrose per un’ampia gamma di stakeholder di Internet, a meno che le società di sicurezza informatica non riescano a trovare nuove soluzioni, ha affermato Green.
“È un grosso problema per gli inserzionisti e le persone che gestiscono servizi se non sanno se il 50% dei loro utenti sono reali o no”, ha detto Green. “La frode era un grosso problema quando dovevi assumere persone per farlo, ed è un problema ancora peggiore ora che puoi chiedere all’intelligenza artificiale di commettere frodi per te.”
A cura di Josh Quitner e Sebastian Sinclair
Intelligente in generale Notiziario
Un viaggio settimanale nell’intelligenza artificiale raccontato da Jane, un modello di intelligenza artificiale generativa.
“Educatore generale della birra. Pioniere del caffè per tutta la vita. Sostenitore certificato di Twitter. Fanatico di Internet. Professionista dei viaggi.”