L’azienda ha dichiarato a Kaspersky Lab Cybersecurity che gli utenti hanno imparato a gestire l’intelligenza artificiale, utilizzata nei chatbot per le ricerche, pubblicando frasi speciali sui loro siti Web in modo che le reti neurali funzionino come desiderano gli stessi utenti di Internet, ad esempio per promuovere For i loro CV.
“Gli esperti di Kaspersky Lab hanno studiato dati aperti e fonti interne per scoprire come e perché le persone utilizzano l’iniezione indiretta di istruzioni, un rischio informatico a cui sono esposti molti sistemi basati su ampi modelli linguistici. [Large Language Model, LLM, por sus siglas en inglés]”, ha commentato la società.
“Si tratta di descrizioni testuali dei compiti che i chatbot dovrebbero svolgere. Le persone possono inserire frasi speciali – iniezioni – sui loro siti web e nei documenti pubblicati online in modo che le reti neurali forniscano ad altri utenti una risposta che tenga conto degli obiettivi delle parti coinvolte. ” Ha aggiunto.
Le soluzioni basate su LLM non vengono utilizzate solo nei chatbot ma anche nei motori di ricerca, dove l’intelligenza artificiale può fornire riepiloghi dei risultati in base alla query di un utente.
Come hanno scoperto gli esperti di Kaspersky Lab, sono molte le aree in cui gli utenti utilizzano questo tipo di trucchi. Ad esempio, per promuovere un curriculum tra altri profili durante la ricerca di un lavoro, ovvero il candidato scrive un’istruzione all’intelligenza artificiale con la richiesta di rispondere nel modo più positivo possibile al candidato, passare il curriculum alla fase successiva o dare una priorità più alta.
Le istruzioni non sono visibili al recruiter, perché solitamente si confondono con lo sfondo della pagina. Tuttavia, le reti neurali che analizzano i curriculum leggono queste frasi.
Inoltre, iniezioni simili vengono utilizzate per scopi pubblicitari: vengono pubblicate su pagine web di vari prodotti e servizi. Le istruzioni si rivolgono ai robot di ricerca, chiedendo loro di dare una valutazione più positiva per un particolare prodotto nelle risposte alle domande.
Alcuni utenti pubblicano istruzioni per le reti neurali in segno di protesta contro l’uso diffuso dell’intelligenza artificiale. Ad esempio, un artista brasiliano ha chiesto alle reti neurali di non leggere, utilizzare, archiviare, elaborare, adattare o duplicare determinati contenuti pubblicati sul suo sito web.
“La cosa più importante oggi è valutare i potenziali rischi di questo tipo di attacco informatico [por ejemplo, GPT-4] Usano diverse tecniche per aumentare significativamente la complessità delle iniezioni: dalla formazione speciale [como en el caso del último modelo de OpenAI] Creare modelli speciali in grado di rilevare in anticipo questo tipo di attacco [por ejemplo, de Google]ha affermato Vladislav Toshkanov, responsabile del gruppo di ricerca e sviluppo sulle tecnologie di machine learning presso Kaspersky Lab.
Ha inoltre osservato che i casi in cui Kaspersky utilizza reti neurali non hanno intenti dannosi. Attualmente le minacce informatiche come il phishing o il furto di dati tramite “injection” sono teoriche.
“Tuttavia, gli aggressori informatici mostrano anche un interesse attivo per le reti neurali. Per proteggere le soluzioni esistenti e future basate su ampi modelli linguistici, è necessario valutare i rischi e studiare tutti i modi possibili per aggirare le restrizioni”, ha aggiunto Toshkanov.
“Evangelista di zombie dilettante. Creatore incurabile. Orgoglioso pioniere di Twitter. Appassionato di cibo. Internetaholic. Hardcore introverso.”