La inteligencia artificial es una parte cada vez más preponderante de la vida cotidiana, ya sea como fuente de consulta o como herramienta para optimizar tareas laborales y académicas.
Sin embargo, un uso incorrecto o descuidado de la IA puede exponer a riesgos innecesarios.
Ante este escenario, ESET realizó una encuesta en Latinoamérica para comprender los hábitos de uso y compartir los principales resultados, además de las medidas de seguridad que se utilizan para preservar los datos y la privacidad al interactuar con estas herramientas.
La encuesta incluyó la participación de más de 1.000 usuarios y usuarias de Venezuela, México, Colombia, Argentina, Perú, Guatemala, Chile, Ecuador, El Salvador, Uruguay, Panamá, Honduras, Costa Rica, Nicaragua, Bolivia, República Dominicana y Paraguay.
Uno de los datos destacados del relevamiento fue que el 80% indicó usar la IA (45% lo hace frecuentemente y 35% ocasionalmente). Asimismo, el 55% afirmó que no verifica siempre la información obtenida: el 14% no lo hace nunca y el 39% lo hace solamente a veces. Desde ESET destacaron que esta práctica puede ser muy riesgosa.

Camilo Gutiérrez Amaya, jefe del Laboratorio de Investigación de ESET Latinoamérica, comentó: “Si bien es cierto que los modelos de IA pueden entregar información certera, no están exentos de generar respuestas incorrectas o sesgadas. Por eso, para garantizar la seguridad (especialmente en temáticas sensibles como las vinculadas a lo legal, las finanzas o la salud) siempre fue aconsejable contrastar la información obtenida con fuentes oficiales”.
Los modelos de IA pueden ser vulnerables a ataques en los que un usuario malintencionado introduce comandos engañosos mediante técnicas como prompt injection para manipular las respuestas. Así, un ciberatacante podría inducir a la IA a brindar instrucciones erróneas o información falsa.
Otro punto relevante fue que el 40% de los encuestados afirmó compartir con frecuencia o esporádicamente información personal y laboral con la IA (el 17% siempre y el 25% a veces). Además, casi el 60% no lee las políticas de privacidad y solo la mitad de las personas toma alguna medida concreta para proteger su información.

Desde ESET explicaron que es aconsejable evitar compartir datos personales y sensibles.
Por ejemplo, no ingresar contraseñas o datos bancarios en chats de IA, ya que estas herramientas pueden procesar dicha información e incluso utilizarla para entrenar futuros modelos, lo que incrementa el riesgo de exposición.
Además de no compartir información personal y laboral, resulta fundamental conocer las configuraciones de privacidad para entender qué tipo de datos se almacenan, si se comparten con terceros y cómo pueden ser utilizados en el futuro.
Desde ESET recomendaron revisar periódicamente los términos y políticas de las aplicaciones por cualquier nueva opción de seguridad y privacidad disponible.
De cara al futuro, la inteligencia artificial es vista con buenos ojos por la mayoría de los encuestados: el 80% la considera positiva. Aun así, un 43% cree que será útil en los próximos años, pero con riesgos asociados. Entre las principales preocupaciones, se destacaron:
- 65%: fraudes y estafas
- 47%: deepfakes y fakenews
- 45%: falta de privacidad y recopilación de datos
Gutiérrez Amaya agregó: “En relación con los fraudes y estafas, no es una novedad que el cibercrimen haya encontrado en la inteligencia artificial una herramienta más que lo potencia. De hecho, aumentó el número de correos de phishing, dado que la IA generativa elabora contenidos cada vez más convincentes para que las víctimas revelen información sensible u obtengan algún rédito económico. Pero no es todo: las estafas por audio también se perfeccionaron, al punto de necesitar tan solo unos pocos segundos de la voz de una persona para producir algo peligrosamente real”.
En cuanto a las deepfakes y fakenews, ESET citó un estudio del MIT que respalda esta preocupación: las noticias falsas tienen un 70% más de probabilidad de ser compartidas que las reales. Los ciberdelincuentes también utilizan información fabricada, publicando artículos diseñados para generar alarma en sitios que aparentan ser medios legítimos.
El objetivo es redirigir a los usuarios hacia páginas maliciosas. Este tipo de phishing combina desinformación con tácticas de ingeniería social, creando escenarios convincentes que facilitan el fraude digital.
Respecto a la privacidad y recopilación de datos, desde ESET remarcaron que es clave entender qué tipo de información almacena la herramienta utilizada, si luego se comparte con terceros y de qué manera será usada en el futuro.
Finalmente, Gutiérrez Amaya concluyó: “El análisis de los resultados obtenidos en la encuesta permitió confirmar que, si bien hay una gran adopción respecto de la inteligencia artificial, aún queda mucho camino por recorrer en cuanto a los hábitos responsables y seguros. La falta de verificación de la información, el poco cuidado al compartir datos sensibles y el desinterés en las políticas de privacidad son alarmas que deben ser escuchadas. La solución no está en temerle a la herramienta o dejar de usarla, sino en incorporar acciones concretas para utilizarla de manera segura y crítica. El desafío es llevar a cabo un uso más consciente de la IA”.