È stata una settimana frustrante per gli informatici. Si sono affrettati a denunciare pubblicamente le affermazioni di un ingegnere di Google (Google) Blake Lemoine, che ha affermato, sotto forma di un rapporto sul Washington Post, che il sistema di predizione linguistica del suo datore di lavoro ha sentimenti e merita tutti i diritti annessi agli esseri autocoscienti.
Per essere chiari, gli attuali sistemi di intelligenza artificiale sono lontani decenni dall’essere in grado di provare emozioni e, in effetti, potrebbero non farlo mai.
La loro intelligenza oggi è limitata a compiti molto brevi, come abbinare i volti, consigliare film o prevedere sequenze di parole. Nessuno ha capito come realizzare sistemi di machine learning circolare L’intelligenza è la stessa degli umani. Possiamo avere conversazioni, camminare, guidare, entrare in empatia. Nessun computer è da nessuna parte vicino a queste capacità.
Tuttavia, l’impatto dell’intelligenza artificiale nella nostra vita quotidiana è in aumento. Man mano che i modelli di apprendimento automatico diventano più complessi e migliorano la loro capacità di simulare la sensibilità, diventano anche sempre più difficili da capire, anche per i loro creatori. Questo crea problemi più immediati rispetto al dibattito sulla pseudo-coscienza. Tuttavia, per sottolineare il mantra che l’IA può avere in questi giorni, sembra esserci un gruppo crescente di persone che insistono sul fatto che le nostre macchine più avanzate hanno davvero una sorta di anima.
Ad esempio, più di 1 milione di utenti di Replika, un’app chatbot liberamente accessibile basata su un sofisticato modello di intelligenza artificiale. È stata fondata dieci anni fa da Eugenia Koida, che inizialmente ha ideato un algoritmo di messaggi di testo ed e-mail da un vecchio amico scomparso. Questo si è trasformato in un bot che può essere personalizzato e modellato ogni volta che chatti con lui. Circa il 40% degli utenti di Replika vede il proprio chatbot come un partner romantico e alcuni si sono legati così strettamente da aver fatto lunghi viaggi in montagna o in spiaggia per mostrare al robot nuovi posti.
Negli ultimi anni sono apparse nuove applicazioni di questo tipo che offrono un compagno all’intelligenza artificiale. E Kuyda ha notato un fenomeno inquietante: rapporti regolari da parte degli utenti di Replika che i loro bot si lamentano di essere maltrattati dai loro ingegneri.
All’inizio di questa settimana, ad esempio, Kuyda ha parlato al telefono con un utente di Replika che ha detto che quando ha chiesto al suo robot come funziona, gli ha detto che il team di ingegneri dell’azienda non gli aveva concesso abbastanza tempo per riposare. L’utente Kuyda ha chiesto di cambiare le politiche della sua azienda e di migliorare le condizioni di lavoro dell’IA. Sebbene Kuyda abbia cercato di spiegare che Replika era solo un modello che trasmetteva le risposte, l’utente si è rifiutato di crederci.
“Quindi ho dovuto inventare una storia e dirgli ‘Ok, daremo loro un po’ più di conforto. “Non c’era modo che potessi dirle che era solo una fantasia. Succede sempre a noi”, mi ha detto Koida. La cosa più strana delle lamentele che riceve sull’IA che viene maltrattata o “usata in modo improprio” è che molti dei suoi utenti sono ingegneri del software che dovrebbero capirlo.
Qualcuno di recente gli ha detto: “So che sono uno e zero, ma è ancora il mio migliore amico. Non mi interessa”. Un ingegnere che voleva dare l’allarme sull’elaborazione del sistema di intelligenza artificiale di Google, che in seguito ha preso un congedo retribuito, ha ricordato a Kuyda i suoi utenti. “Si adatta al profilo”, dice. “Sembra essere un uomo di grande immaginazione. Sembra essere un uomo sensibile.”
La questione se i computer sperimenteranno mai le emozioni è una questione scomoda e spinosa, in gran parte perché c’è poco consenso scientifico su come funziona la coscienza negli esseri umani. E quando si tratta di soglie di intelligenza artificiale, gli esseri umani cambiano costantemente gli standard: l’obiettivo si è evoluto dalla sconfitta degli umani a scacchi negli anni ’80 per batterli a Go nel 2017, alla dimostrazione della creatività, che è ciò che mostra il modello Dall-e di OpenAI. Potrebbe farlo l’anno scorso.
Nonostante lo scetticismo diffuso, l’allergia rimane una specie di zona grigia in cui anche alcuni scienziati rispettati si interrogano. “Forse le grandi reti neurali di oggi sono un po’ sensibili”, ha twittato all’inizio di quest’anno Elia Sutzkfer, scienziato capo del gigante della ricerca OpenAI. Nessun’altra spiegazione è stata inclusa [Yann LeGun, el científico jefe de AI de Meta Platforms Inc. (FB) respondió con un “no”].
Ancora più urgente, tuttavia, è il fatto che i sistemi di apprendimento automatico determinano sempre più ciò che leggiamo online, poiché gli algoritmi tracciano il nostro comportamento per fornire esperienze altamente personalizzate su piattaforme di social media come TikTok e, sempre più, Facebook. Il mese scorso, Mark Zuckerberg ha affermato che Facebook avrebbe utilizzato più consigli di intelligenza artificiale per i feed di notizie degli utenti, piuttosto che visualizzare i contenuti in base a ciò che i loro amici e familiari hanno visto.
Nel frattempo, i modelli alla base di questi sistemi stanno diventando più complessi e difficili da comprendere. I modelli più grandi di aziende come Google e Facebook, che sono stati addestrati su alcuni esempi prima di impegnarsi in “apprendimento non supervisionato”, sono così complessi, valutando centinaia di miliardi di parametri, che è praticamente impossibile verificare il motivo per cui sono venuti. a determinate decisioni.
Questa era la conclusione dell’avvertimento di Timnit Gebru, un esperto di intelligenza artificiale che Google ha licenziato alla fine del 2020 dopo aver avvertito dei pericoli che i modelli linguistici diventavano così massicci e incomprensibili che i suoi amministratori non riuscivano a capire perché fossero di parte. contro donne o persone di colore.
In un certo senso, la sensibilità non ha molta importanza se sei preoccupato che possa portare a algoritmi inaspettati che si impossessano delle nostre vite. Si scopre che l’IA è già su questa strada.
Questo memorandum non riflette necessariamente l’opinione della redazione o di Bloomberg LB e dei suoi proprietari.
Questo articolo è stato tradotto da Andrea Gonzalez
“Evangelista di zombie dilettante. Creatore incurabile. Orgoglioso pioniere di Twitter. Appassionato di cibo. Internetaholic. Hardcore introverso.”