Se sei un utente Bing con ChatGPT-Fai attenzione alle informazioni che condividi. recente cambiamento di Termini di servizio stati Microsoft può archiviare le tue conversazioni con il chatbot. Sebbene la società affermi che le nuove politiche sono progettate per garantire un uso appropriato dell’IA, alcuni le considerano troppo invadenti.
Come accennato tronco d’alberoL’aggiornamento del 30 luglio 2023 aggiunge sezioni che Combatti l’abuso di Bing per ottenere informazioni privilegiate. Gli utenti non saranno in grado di utilizzare un chatbot per scoprire componenti chiave di modelli, algoritmi e sistemi. Inoltre, non è consentito utilizzare metodi per estrarre o raccogliere dati Web dal Servizio per creare, addestrare o migliorare altri modelli di intelligenza artificiale.
Microsoft è seriamente intenzionata a proteggere il tuo browser E determinato a punire chiunque infranga le regole. Se ricordiamo, i primi giorni di Bing con ChatGPT sono stati caotici per l’azienda, dopo che molti utenti hanno messo in gioco la sua sicurezza. Uno di loro ha chiesto a Bing di rivelare il suo nome in codice e le istruzioni per eseguirlo.
Kevin Liu, esperto di sicurezza, Accedi alle informazioni riservate tramite Trucco rapido, una tecnica che induce i chatbot a rispondere a domande non autorizzate. Oltre a Liu, altri analisti sono riusciti a fargli pianificare attentati terroristici oa farlo impazzire dopo una lunga conversazione. Alla luce di ciò, Microsoft ha colmato il divario e ha aggiornato i propri firewall per impedire a Bing di continuare a divulgare informazioni.
Microsoft sta prendendo una posizione dura per proteggere Bing
La competizione nella corsa all’IA ha spinto molte aziende a cambiare posizione per proteggere la propria tecnologia. Proprio come Twitter o Reddit, Microsoft non vuole che terze parti abbiano accesso al set di dati, ai modelli o agli algoritmi che alimentano Bing Con ChatGPT.
“Nell’ambito della fornitura di servizi di intelligenza artificiale, Microsoft elaborerà e memorizzerà il tuo input nel Servizio, nonché il tuo output dal Servizio, al fine di monitorare e prevenire usi o output abusivi o dannosi”, afferma l’aggiornamento dei Termini di servizio.
Microsoft Non specifica per quanto tempo il tuo sollecitare, anche se a giudicare dal motivo, potrebbero essere 30 giorni. servizi incontratiPer archiviare una copia dei tuoi messaggi in un periodo di tempo simile. In situazioni di emergenza o in conti relativi a un’indagine penale, i dati vengono conservati per un massimo di 90 giorni.
L’unico modo per impedire a Microsoft di archiviare le tue conversazioni con Bing è essere un utente dell’edizione aziendale. Le politiche del browser ChatGPT delle aziende variano e impediscono alla tecnologia di tenere un registro o addestrare i propri modelli con le informazioni condivise.
IL La nuova politica entrerà in vigore il 30 settembre 2023quindi hai ancora tempo per eliminare la cronologia chat.
“Educatore generale della birra. Pioniere del caffè per tutta la vita. Sostenitore certificato di Twitter. Fanatico di Internet. Professionista dei viaggi.”