Millones de usuarios de Apple, vulnerados por una falla de ChatGPT

Los usuarios de Mac Book sufren un robo de datos al ser vulnerados por una falla de la Inteligencia Artificial. Descubre cómo proteger tu información si tienes este sistema operativo.

author

Por:

Melisa Sbrocco

4 de julio de 2024, 1:56 p.m.

Compartir este artículo

Facebook
Twitter
WhatsApp
Email

Compartir este artículo

Facebook
Twitter
WhatsApp
Email
Millones de usuarios de Apple, vulnerados por una falla de ChatGPT
Datos de usuarios robados por ChatGPT. Fuente: Canva.

La aplicación de escritorio de ChatGPT para Mac almacenaba las conversaciones de los usuarios sin cifrar y en una ubicación poco segura del ordenador. Esto hacía posible que cualquier persona malintencionada, a través de un virus, pudiera acceder a las interacciones de los usuarios con el chatbot. Esta falla mundial fue revelada por el ingeniero de datos y electrónico Pedro José Pereira Vieito en Threads, quien señaló que los chats se almacenaban en la siguiente ubicación de Mac: ubicación no protegida: ~/Library/Application\Soporte/ com.openai.chat/conve… {uuid}/.

Básicamente, cualquier otra aplicación, proceso o malware en ejecución puede leer todas tus conversaciones de ChatGPT sin necesidad de solicitar permiso”, explicó el ingeniero en esta red social. Pereira explicó que descubrió este error de privacidad porque le causaba curiosidad que la aplicación de ChatGPT para Mac no se encontrara en la tienda de aplicaciones para el ordenador, únicamente en la página de OpenAI. Cuando la compañía de inteligencia artificial se enteró de la falla, actualizó la aplicación al agregar cifrado a las conversaciones.

article image
ChatGPT. Fuente: Canva.

Andreas Müller indicó que esta falla era “un problema de macOS” porque un “sistema operativo debería evitar este tipo de situaciones”. Pereira le respondió que desde macOS Mojave 10.14, los usuarios debían rechazar o aceptar explícitamente el tratamiento de datos personales en las aplicaciones. “OpenAI decidió prescindir del sandbox y almacenar las conversaciones en texto simple en una ubicación no protegida, deshabilitando todas estas defensas integradas”, dijo.

Publicidad

El término “sandbox” se refiere a un entorno de seguridad aislado y controlado donde las aplicaciones pueden ejecutarse de manera segura y limitada. Este entorno restringe el acceso de las aplicaciones a recursos críticos del sistema, como archivos sensibles o configuraciones del sistema operativo.

Cómo OpenAI entrena a ChatGPT

OpenAI, la entidad detrás de ChatGPT, emplea la información proporcionada por los usuarios para alimentar su sistema de inteligencia artificial. Según la empresa, esta estrategia contribuye a “perfeccionar el modelo”, dejando a decisión de cada usuario determinar si desea colaborar en este proceso.

“Conservamos ciertos datos de sus interacciones con nosotros, pero tomamos medidas para reducir la cantidad de información personal en nuestros conjuntos de datos de entrenamiento antes de que se utilicen para mejorar y entrenar nuestros modelos”, explica la compañía en su página de políticas y privacidad, sin embargo, el texto no especifica qué información concreta guarda para su sistema. Agregan que el contenido enviado por los usuarios no es utilizado en sus ofertas comerciales como su API, ChatGPT Team y ChatGPT Enterprise. A través de unos simples pasos, los usuarios tienen la oportunidad de gestionar esta configuración para mantener privados sus datos.

article image
Mac Book, datos vulnerados. Fuente: Canva.

Cómo evitar que OpenAI use mis datos para entrenar a ChatGPT

  • Ingresar a ChatGPT con la sesión iniciada.
  • Ir a la esquina superior derecha, seleccionar la foto del usuario y dirigirse a Configuración.
  • Seleccionar ‘Controles de datos’.
  • Ir al apartado de ‘Mejora el modelo para todos’ y desactivar esta opción.
  • Pulsar ‘Listo’.

Temas relacionados