ChatGPT, Gemini y Claude: cómo cada plataforma gestiona los datos y qué diferencia hace el tipo de cuenta

ChatGPT alcanzó 900 millones de usuarios activos semanales. ESET advierte sobre los riesgos de privacidad: almacenamiento, entrenamiento con datos y credenciales robadas en la Dark Web.

ChatGPT alcanzó a principios de este año los 900 millones de usuarios activos semanales, según datos de OpenAI.

Sin embargo, ESET, compañía líder en detección proactiva de amenazas, advierte que esta escala masiva trae consigo una cuestión crítica para la seguridad digital: ¿dónde va a parar cada palabra que se escribe en ese campo de texto?

Mario Micucci, investigador de Seguridad Informática de ESET Latinoamérica, señala que “muchas personas pueden creer que las conversaciones son volátiles y funcionan como un chat privado que desaparece al cerrar la ventana”.

“En realidad, interactuar con grandes modelos de lenguaje implica una compleja red de almacenamiento y procesamiento de datos que puede exponer secretos comerciales o información personal sensible si no se tiene cuidado”, continuó.

Las tres capas por donde circulan los datos

ESET explica que cuando se escribe información en ChatGPT, el texto recorre un camino que involucra tres capas fundamentales:

1. Almacenamiento e historial: en cuanto se envía un mensaje, se almacena en los servidores de OpenAI para que el usuario pueda acceder al historial en diferentes dispositivos y para que el chatbot mantenga el contexto de la conversación actual.

Puede conservarse por períodos limitados, como hasta 30 días en ciertos casos, por motivos de seguridad y monitoreo de abusos.

2. Entrenamiento de modelos: este es el centro del debate sobre la privacidad.

Por defecto, OpenAI puede utilizar las conversaciones de las versiones gratuitas y Plus para perfeccionar sus modelos. Sin embargo, el usuario puede desactivar esta opción en la configuración.

En ChatGPT Business, Enterprise, Edu, Healthcare y en la API, la herramienta no utiliza los datos para entrenamiento de forma predeterminada.

Micucci agrega que “si un empleado introduce un fragmento de código propietario o un plan estratégico de marketing, es lógico pensar que, al entrenar el modelo con información propia, esta podría de alguna forma ser utilizada para otros usuarios”.

“Estudios académicos han demostrado que los modelos de lenguaje de gran escala (LLM) pueden memorizar partes de sus datos de entrenamiento y que, bajo ciertas condiciones, esta información puede ser extraída mediante técnicas especializadas”, continuó.

3. Revisión humana: para garantizar que la IA no genere contenido ofensivo o peligroso, una muestra de conversaciones anonimizadas pasa por revisores humanos.

Son especialistas capacitados que leen fragmentos de los diálogos para evaluar la calidad y la seguridad de la respuesta. Es decir, no es solo una máquina la que lee lo que se escribe; personas reales pueden tener acceso a partes de las interacciones.

“El mayor riesgo es que la IA aprenda patrones de los textos que se le comparten y los reproduzca de forma general en sus respuestas”, destaca el investigador.

“Los planes estratégicos, el código propietario, las credenciales, los datos de clientes o los documentos internos deben utilizarse únicamente en herramientas de IA aprobadas por la empresa y con controles de privacidad adecuados”, agregó.

Credenciales en la Dark Web y otros actores del ecosistema

Además de los riesgos inherentes al procesamiento de datos, ESET advierte sobre el interés creciente de los ciberdelincuentes en las credenciales de acceso a ChatGPT.

Datos de 2024 muestran que más de 225.000 registros de inicio de sesión de ChatGPT fueron encontrados a la venta en foros de la Dark Web.

Este volumen de credenciales robadas, a menudo mediante malware del tipo infostealer, demuestra que el peligro no está solo en lo que se escribe, sino en quién puede acceder al historial si una cuenta no está correctamente protegida.

Aunque ChatGPT domina la conversación, el ecosistema de la IA Generativa incluye otros actores con enfoques diferentes.

Gemini de Google opera dentro de la amplia infraestructura de la empresa y utiliza las conversaciones para mejorar sus servicios, incluyendo revisión por parte de entrenadores humanos.

Dentro del entorno corporativo de Google Workspace, las políticas de privacidad empresarial establecen que los datos no se utilizan para entrenar modelos globales.

El proceso de anonimización de Google elimina la información de la cuenta, pero el contenido puede seguir siendo analizado para mejorar la precisión de las respuestas, a menos que la configuración de actividad de IA se desactive manualmente.

Claude de Anthropic presenta una filosofía de “IA Constitucional”, con retención de datos al mínimo y mayor énfasis en mecanismos automatizados de alineación del comportamiento.

Para los usuarios de la versión gratuita, los datos pueden usarse para mejorar el modelo, pero Anthropic ofrece un proceso de exclusión más directo para sus clientes comerciales.

Micucci remarca que “la gran similitud entre todos estos modelos es que ninguno funciona como una bóveda completamente aislada por defecto”.

“Ya sea en OpenAI, Google o Anthropic, el proceso de aprendizaje automático depende de datos. La verdadera diferencia para la seguridad radica en el contrato: mientras que en las versiones gratuitas los datos pueden contribuir indirectamente a la mejora del sistema, en las versiones empresariales la privacidad se trata como un servicio premium, donde los datos se procesan, pero no se utilizan para entrenar modelos”, continuó.

Para garantizar que la experiencia con herramientas de IA sea productiva y segura, ESET recopiló las siguientes recomendaciones:

  • Protección del comportamiento y anonimización: la regla de oro es nunca introducir información que no se haría pública. Antes de enviar un prompt, realizar una limpieza manual: reemplazar nombres de clientes por alias, eliminar valores financieros específicos y ocultar fragmentos de código que contengan claves de acceso o vulnerabilidades de infraestructura.
  • Gestión de cuentas y protección contra accesos no autorizados: utilizar contraseñas fuertes y únicas. Activar siempre la autenticación de dos factores (2FA) disponible en la configuración de OpenAI, Google o Anthropic. Mantener el sistema operativo y antivirus actualizados para evitar malware del tipo infostealer, principal responsable de la recolección de credenciales de herramientas de IA.
  • Configurar la privacidad (Opt-out): no aceptar la configuración predeterminada. Explorar el menú de “Controles de datos” de ChatGPT para desactivar el historial de chat y el entrenamiento de modelos. En el caso de Gemini, gestionar la actividad en “Actividad en apps de Gemini” para decidir qué debe o no almacenar Google.
Redacción ebizLatam
Redacción ebizLatamhttp://www.ebizlatam.com
Desde la redacción de ebizLatam gestionamos todos los contenidos del portal pionero sobre tecnología y negocios América Latina.
ARTÍCULOS RELACIONADOS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

mas leídas