Confianza ciega en la IA generativa: el enemigo silencioso del management

0
8

Un informe del MIT Industrial Performance Center advierte que la IA generativa solo mejora el trabajo cuando los usuarios saben cuándo confiar en ella, y revela que la automatización sin supervisión genera una atrofia de habilidades en las organizaciones.

Natalia Vivas, consultora estratégica y referente en comunicación, analiza los riesgos de la despersonalización y advierte que “la reputación, la credibilidad y la ética siguen siendo valores estrictamente humanos”.

El MIT Industrial Performance Center es un centro de investigación interdisciplinario dentro del Instituto de Tecnología de Massachusetts dedicado a analizar la productividad industrial, la innovación y la competitividad económica.

Según el informe, “para que la IA realmente acelere las tareas y mejore la calidad del trabajo, los usuarios deben saber cuándo confiar”.

El estudio destaca que “un solo talle no sirve para todos, ni siquiera para algunos”, y señala que “los trabajadores utilizan las herramientas de IA generativa de maneras muy distintas, incluso realizando el mismo trabajo”.

Esto les permite a los trabajadores “usar estas herramientas cómo y cuándo quieran, y pueden evitar usarlas cuando no confían en su eficacia”, concluye el documento.

Vivas, explica que en la vorágine por reducir costos operativos “las empresas están adoptando IA a una velocidad que no siempre va acompañada de pensamiento crítico del usuario”.

“El problema es usarla sin cuestionamiento alguno”, agregó. Según la especialista, existe “un peligro latente que se magnifica por la falta de mirada crítica y analítica sobre algo que parece incuestionable”.

La ilusión de ser una “empresa tech”

La mirada de Vivas coincide con el estudio del MIT, que sentencia que en el mundo de la IA “un solo talle no sirve para todos, ni siquiera para algunos”.

Es ahí donde las empresas enfrentan un desafío invisible pero con consecuencias directas para su reputación.

“Veo casos de pymes que quieren usar la IA de turno que sea solamente para decir que son más tecnológicas”, señaló Vivas.

“Hasta los mails entre equipos son hechos por IA generativa, fríos, sin personalidad, sin identidad, un espanto”, continuó.

Ética y alucinaciones

El informe advierte que la confianza ciega “se convierte en un problema de seguridad cuando se utiliza la IA para tareas de alto riesgo sin un proceso de verificación humana robusto”.

En la misma línea, Vivas indica que “cuando las empresas dejan de validar resultados bajo la creencia de que la máquina nunca se equivoca puede ser foco de conflicto”.

“Es allí cuando el empleado escéptico se transforma en una ventaja competitiva, ya que quien posee la experiencia para desconfiar tiene la capacidad de identificar y corregir posibles alucinaciones de la IA”, agregó.

Vivas es tajante sobre la naturaleza de estas herramientas: “la IA no tiene ética, une puntos basados en patrones y, si no los encuentra, puede inventarlos por estadística generando alucinaciones”.

Además, destaca que los algoritmos fueron entrenados mayoritariamente con datos de Estados Unidos y Europa, lo que representa un punto ciego para el mercado local.

“La IA no tiene la menor idea de si ese mensaje va a caer bien o si va a ofender a un sector específico en una economía tan sensible como la nuestra”, concluyó.

Las tres trampas de la automatización

El informe identifica tres formas en que la adopción de nuevas tecnologías puede no mejorar el desempeño de los trabajadores ni la calidad de su trabajo:

  • Desuso: no automatizar cuando incorporar nueva tecnología podría ser beneficioso.
  • Mal uso: implementar tecnologías de automatización con malos resultados.
  • Sobreuso: las tecnologías de automatización funcionan bien, pero conducen a consecuencias no deseadas.

Cuando los trabajadores no entienden cómo la IA generativa llega a una conclusión, tienden a los extremos: o no la usan nunca, o la usan para todo sin cuestionar.

Es el sobreuso el que deja de validar los resultados bajo la premisa de que la herramienta nunca se equivoca.

Al ser herramientas persuasivas y seguras de sí mismas, los usuarios tienden a confiar en exceso.

Por eso el informe advierte que el uso exagerado “se convierte en un problema de seguridad cuando se utiliza la IA para tareas de alto riesgo sin un proceso de verificación humana robusto”.

“Cuando un equipo deja de cuestionar los resultados porque la herramienta parece infalible, estamos ante un problema de seguridad grave”, indica Vivas.

“Hay quienes piensan que dejarle todo a una versión gratuita de IA es una jugada maestra de eficiencia. Son decisiones, pero hay decisiones que pueden salir caras porque hacen a las empresas más vulnerables”, sentenció.

El costo de la reputación

Hay empresas que invierten años en instalarse en el mercado y ganar reputación. Sin embargo, un error no chequeado en un contenido generado por IA generativa puede revertir ese trabajo acumulado.

“La intervención humana no es opcional por más que la IA suene tan segura que nos da la confianza de hipotecar la compañía en su buen nombre y honor”, explica Vivas.

“Conforme pasaron los años, aceptamos que si un texto está bien escrito —que es lo que medianamente hacen las IA— es cierto, pero no es así en todos los casos”, continuó.

“Cuando una alucinación no detectada a tiempo en un reporte o en una respuesta a un cliente puede sufrir el costo de tener que reconstruir la confianza de la marca, que es infinitamente superior al de haber tenido un profesional para la supervisión de ese proceso”, agregó.

Según la especialista, delegar íntegramente áreas sensibles como marketing, comunicación interna o externa y atención al cliente sin intervención profesional, lejos de ser innovador, es una decisión que “roza la negligencia”.

SIN COMENTARIOS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí