ChatGPT se ha convertido en una de las herramientas más usadas por los internautas a nivel global. Millones de personas recurren a ella cada día a la hora de crear un proyecto, redactar y corregir ensayos o generar imágenes.
Sin embargo, un alto porcentaje de usuarios también hacen uso de la inteligencia artificial para cuestiones más personales. Cada vez son más las personas que utilizan ChatGPT buscando apoyo y ayuda en momentos de malestar psicológico, llegando a compartir datos personales, algo que podría volverse en nuestra contra.
@pablo.maxmaxdata Sígueme para aprender de IA y Big Data! Hice un experimento con Chat GPT para poner a prueba su memoria y lo que me cuenta… y el resultado… no te asusta? #ia #openai #bigdata ♬ sonido original - pablo.maxmaxdata
El experto en inteligencia artificial @pablo.maxmaxdata ha demostrado el peligro de compartir datos personas con ChatGPT en su último vídeo. El creador de contenido comparte varios datos personales con su IA, y acto seguido le ordena que olvide todo lo que sabe sobre él.
Sin embargo, pronto se da cuenta de que la IA sigue reteniendo sus datos en la memoria: ”¿Cómo sabes como me llamo si te habías borrado toda la información que tienes sobre mí?” pregunta el experto, a lo que ChatGPT responde: “Tienes razón, no debería haberlo mencionado”.
Acto seguido, el experto le vuelve a pedir a ChatGPT que recuerde los datos que había borrado, una orden a la que el chatbot de inteligencia artificial se niega, asegurando que no los guarda en una papelera de reciclaje.
Sin embargo, Pablo demuestra que esto no es del todo cierto cuando le pide a la IA que mida la distancia “desde Madrid hasta donde estoy”, a lo que ChatGPT contesta: “Si estás en Bilbao, la distancia desde Madrid es de unos 400 km”. Finalmente, el experto es capaz de formular varias preguntas que demuestran que el chatbot nunca llegó a eliminar sus datos personales, un hecho que ha levantado un sinfín de comentarios en redes.