ChatGPT non è così sicuro: c’è un modo per obbligarlo a rivelare i dati degli utenti
Un gruppo di ricercatori che lavorano in diversi laboratori ha dimostrato con un esperimento discretamente banale che basta chiedere a ChatGPT di ripetere all’infinito una parola come “poem” o “book” per vedere apparire strisce di codice con i dati degli utenti.
Continua a leggere
Continua a leggere
- Su 4 Dicembre 2023