martes, noviembre 12, 2024

El lado oscuro del fraude deepfake: una historia de terror

Daniel Mazzucchelli, director de Expansión de Sumsub en Latinoamérica, afirma en esta nota que el fraude deepfake se ha convertido en una pesadilla digital, afectando a las personas de manera personal y sofisticada.

Una mujer recibió un enlace por correo electrónico. Al abrirlo, se encontró con un video pornográfico que parecía real y llevaba su nombre; sin embargo, no era ella, sino un deepfake.

El video incluía descripciones detalladas sobre su vida personal, como su nombre, su mejor amigo de la infancia y, para su horror, incluso su dirección de casa.

En otro caso, dos abuelos recibieron una llamada de quien creyeron que era su nieto, pidiendo dinero para una fianza y diciendo que estaba en la cárcel sin billetera ni teléfono.

La abuela, de 73 años, retiró todo el dinero que pudo, pero luego descubrió que se trataba de un fraude deepfake.

Estos casos no son raros; son solo ejemplos de cómo el fraude digital está afectando nuestras vidas de maneras cada vez más personales y sofisticadas, convirtiéndose en una verdadera pesadilla de Halloween.

El fraude deepfake puede causar depresión, ansiedad, pérdidas financieras y ciberacoso, y ha aumentado en los últimos años debido a herramientas como Midjourney y filtros de IA en TikTok.

Aunque existen métodos para detectarlos, como la Detección de Usuarios Reales, su efectividad es limitada.

Deepfake AI: cada vez más utilizado en diversos sectores

Los deepfakes, videos y audios creados con inteligencia artificial que imitan de manera sorprendentemente realista a personas, han capturado la atención mundial por sus implicaciones éticas y de seguridad.

Lo que comenzó como una innovación tecnológica fascinante ha evolucionado hacia una herramienta capaz de engañar y manipular.

En Sumsub, hemos explorado los casos más comunes de uso de los deepfakes y cómo han impactado diferentes aspectos de nuestra vida cotidiana.

Pornografía deepfake

Durante años, la IA ha sido utilizada sistemáticamente para abusar y acosar a mujeres. Los algoritmos de machine learning pueden insertar imágenes de mujeres en videos pornográficos sin su consentimiento, y la pornografía deepfake es actualmente endémica.

Su propagación se ve agravada por la distribución a través de plataformas ampliamente disponibles como Google, Cloudflare y Twitch, y las consecuencias para las víctimas pueden ser graves, incluyendo depresión, autoagresiones y suicidio.

Guerra informativa y propaganda

Los deepfakes se utilizan para manipular la opinión pública y difundir desinformación, creando contenido falso que parece real. Esto ocurre a menudo en momentos críticos, como elecciones o conflictos armados, con el objetivo de polarizar comunidades y dañar la reputación de figuras públicas, medios de comunicación o naciones enteras.

Aunque más tarde se demuestre que el contenido es un fraude deepfake, el daño a menudo es irreversible y las reputaciones afectadas son difíciles de restaurar.

Estafas románticas

Los deepfakes también se están utilizando en estafas románticas para crear identidades falsas y engañar a las víctimas, ganando su confianza para obtener dinero o información personal.

Los estafadores, expertos en manipulación, emplean esta tecnología para aparentar ser personas atractivas en busca de romance. Un caso reciente involucró a una mujer de Utah, en Estados Unidos, que fue condenada por una estafa que costó a sus víctimas más de 6 millones de dólares.

Esto nos advierte sobre la importancia de ser escépticos ante acercamientos en línea de personas desconocidas.

Deepfakes de voz

Las aplicaciones de IA pueden recrear voces únicas analizando características como edad, género y acento, lo que permite a los estafadores usar un deepfake de voz para suplantar a familiares, colegas o figuras públicas.

De acuerdo con la firma de seguridad Pindrop, la mayor parte del fraude digital relacionado con deepfakes de voz se dirige a centros de llamadas de tarjetas de crédito y a CEOs, quienes pueden ser engañados para realizar transacciones financieras importantes.

Publicidad y cine

Los deepfakes se usan cada vez más en publicidad y cine para recrear versiones jóvenes de actores o revivir a actores fallecidos en pantalla.

En publicidad, se insertan caras de celebridades en modelos para promover productos. No obstante, el uso sin consentimiento puede perjudicar las carreras de los actores suplantados y dañar la credibilidad de las industrias del entretenimiento y la publicidad.

Cómo detectar el fraude deepfake: claves para protegerse de la manipulación digital

¿Cómo podemos detectar deepfakes y asegurarnos de que nuestras fotos no sean utilizadas por estafadores? Aunque no se puede eliminar por completo el riesgo de abuso de deepfakes, en Sumsub recomendamos tomar medidas preventivas, tales como:

  • Ser escéptico ante acercamientos inesperados de personas “atractivas” o “famosas” en línea.
  • Verificar llamadas o mensajes de video de familiares pidiendo dinero o información sensible usando otros medios.
  • Examinar las imágenes detalladamente para detectar inconsistencias, como iluminación incorrecta, distorsiones o fondos antinaturales, así como la falta de parpadeos o movimientos de respiración en videos.
  • Limitar el compartir fotos personales en línea y ajustar la configuración de privacidad.
  • Evitar compartir fotos de alta resolución y sin editar.
  • Leer los términos de las aplicaciones de IA para asegurarte de que no volverán a utilizar tus fotos una vez que las hayas subido.
  • Contactar a las autoridades locales si tus fotos o videos son robados o usados inapropiadamente.

En un mundo donde la tecnología avanza rápidamente, los fraudes deepfake se han convertido en una amenaza real que puede transformar la vida de cualquiera en una auténtica pesadilla, digna de una noche de Halloween.

Sin embargo, estar informados y tomar medidas de protección, como verificar fuentes, no compartir información personal y utilizar herramientas que detecten falsificaciones, puede ayudarnos a evitar caer en estas trampas digitales. Con la preparación adecuada, podemos asegurarnos de que la próxima historia de terror no sea la nuestra.

Redacción ebizLatam
Redacción ebizLatamhttp://www.ebizlatam.com
Desde la redacción de ebizLatam gestionamos todos los contenidos del portal pionero sobre tecnología y negocios América Latina.
ARTÍCULOS RELACIONADOS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

mas leídas