viernes, agosto 29, 2025

Alucinar, convencer y confiar: ¿quién supervisa a la IA?

La expansión de la inteligencia artificial genera errores convincentes llamados alucinaciones. La supervisión humana es clave para evitar pérdidas y riesgos en las organizaciones.

La inteligencia artificial se volvió una prioridad para las organizaciones que buscan mantenerse competitivas en un entorno que exige cada vez más velocidad, precisión y capacidad de adaptación.

Todo prometía eficiencia: la automatización, el análisis avanzado y los agentes.

Sin embargo, a medida que su uso se generalizaba, muchas empresas se enfrentaban a un riesgo tan invisible como peligroso: las «alucinaciones» de la IA.

¿Qué pasaba cuando una tecnología diseñada para ayudar empezaba a generar errores que aceptábamos como verdades por venir de una IA? En un contexto donde confiar en la IA parecía casi inevitable, la pregunta ya no era qué podía hacer, sino quién la supervisaba.

La inteligencia artificial aportaba entre 2,6 y 4,4 billones de dólares a la economía global, según estudios, y afectaría a casi el 40% de los empleos en todo el mundo, de acuerdo con datos recientes. Sin embargo, no todos estaban preparados para este cambio.

Un ejemplo de esto fue cuando Google presentó su modelo de IA Bard (hoy Gemini) con una afirmación que decía que el Telescopio Espacial James Webb había tomado la primera imagen de un exoplaneta, cuando en realidad ese hito ocurrió en 2004 con otro instrumento.

El fallo pasó desapercibido en la revisión interna, pero fue detectado por astrónomos y usuarios en redes sociales.

El resultado se corrigió en un solo día. Quedaba claro que la supervisión humana a los trabajos realizados por inteligencia artificial era fundamental, ya que en tareas importantes un error podía costar mucho dinero, tiempo y reputación.

La «alucinación» ocurría cuando un sistema de inteligencia artificial generaba respuestas que, aunque parecían convincentes en su formulación, eran incorrectas o directamente inventadas.

Era similar a cuando un modelo de lenguaje grande (LLM) como ChatGPT o Gemini afirmaba con certeza algo que era falso. Estos errores parecían auténticos, lo que los hacía difíciles de detectar a primera vista.

Pensemos en un analista financiero que usaba un modelo para resumir informes trimestrales y recurrió a un LLM de nivel medio con una tasa de alucinación del 4,5%.

Al usarse, el modelo alucinó cifras críticas en una proyección financiera clave y afirmó que el gasto de un competidor era de u$s 23 millones, cuando en realidad ascendía a u$s 230 millones. Esto llevó a una decisión errónea que costó a la compañía u$s 2,3 millones en recursos mal asignados.

Este tipo de situaciones no se limitaba a un caso aislado. En una prueba, las tasas de alucinaciones de los sistemas de IA más nuevos alcanzaban niveles significativos.

Actualmente, el modelo con una tasa de alucinaciones del 0,7% era Gemini-2.0-Flash-001 de Google.

El origen de este problema estaba en cómo aprendían estas herramientas. A diferencia de una calculadora que sigue reglas fijas, un modelo de lenguaje aprendía por repetición y patrones.

No resolvía una suma porque entendía el cálculo, sino porque predecía que, después de «2 + 2 =», probablemente venía «4».

Esa predicción podía acertar la mayoría de las veces, pero no existía una garantía total. Incluso los modelos más avanzados podían fallar en operaciones básicas o afirmaciones concretas.

Para minimizar estos errores, hoy existían estrategias como conectar los modelos de IA a herramientas externas que permitían obtener resultados más confiables.

Sin embargo, estas soluciones técnicas no eliminaban por completo el riesgo: entender cómo funcionaban y cuándo aplicarlas seguía siendo una responsabilidad humana.

Ante este panorama, muchas empresas destinaban recursos considerables a corregir errores, identificar alucinaciones y rediseñar procesos. Esto subrayaba un aumento en los esfuerzos de mitigación de riesgos, particularmente en el área de imprecisión.

Incluso ya se estaban desarrollando sistemas de inteligencia artificial capaces de supervisar el trabajo de otras IAs, lo que abría un nuevo capítulo en esta evolución tecnológica: la automatización del control.

Sin embargo, el problema no se resolvía con más gasto, sino con una estrategia clara, y por ende, con talentos adecuados que supieran buscar las falencias de los modelos para corregirlas.

La clave para navegar por este panorama era aprender a usar la tecnología de manera inteligente y como un complemento, sobre todo cuando se trataba de pequeñas empresas que se encontraban más vulnerables y quizás contaban con menos presupuesto.

En Latinoamérica, el mercado de la IA tenía una tasa de crecimiento anual compuesta (CAGR 2025-2031) del 26,25 %, lo que representaría un volumen de mercado de 47.880 millones de dólares en 2031, según informes.

No obstante, aunque cada vez más organizaciones sumaban procesos de control, no todas los enfocaban precisamente en gestión de la información.

Según McKinsey, solo el 27% de los encuestados cuyas organizaciones utilizaban IA genérica afirmaban que los empleados revisaban todo el contenido creado por esta tecnología antes de su uso.

Una alternativa que muchas organizaciones estaban considerando era trabajar con partners tecnológicos para el desarrollo e implementación de proyectos de IA.

Contar con aliados que comprendieran cómo aplicar la tecnología y supervisar su uso posibilitaba la automatización, sin caer en errores comunes.

Su experiencia en implementación, validación de modelos y supervisión humana contribuía a reducir riesgos y optimizar resultados. No alcanzaba con usar tecnología avanzada; hacía falta saber cuándo, cómo y con qué objetivos aplicarla.

La IA no ofrecía soluciones perfectas, sino que funcionaba como una herramienta poderosa, pero solo cuando se usaba con criterio.

Las «alucinaciones» seguirían existiendo y el desafío estaba en aprender a detectarlas y minimizar su impacto.

El éxito o fracaso al usar IA no dependía únicamente de la tecnología, sino de cómo las empresas diseñaban y aplicaban estrategias para aprovecharla de manera efectiva, y asegurarse de que su implementación estuviera alineada tanto con sus metas inmediatas como con sus planes a futuro.

Diego Garagorry
Diego Garagorry
COO de Nearsure.
ARTÍCULOS RELACIONADOS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

mas leídas