El pasado 26 de marzo, Meta presentó al mercado Tribe v2, un modelo multimodal de codificación cerebral que predice las respuestas de nuestra mente ante estímulos naturales (video, audio, texto).
Y lo lanzó en modalidad open source, es decir, libre para que todo el mundo pueda usarlo, como modelo abierto de investigación.
¿Por qué debería preocuparme? Vivimos en una época en la que la tecnología dejó de ser una herramienta pasiva para convertirse en un sistema activo de interpretación humana.
Durante años, las plataformas digitales aprendieron a observarnos: qué clickeamos, cuánto tiempo miramos una pantalla, qué evitamos, qué nos incomoda. Eso fue apenas el primer paso.
Hoy estamos en una fase mucho más sofisticada, donde no solo se observa el comportamiento, sino que se entrena a las máquinas para comprenderlo, anticiparlo y, potencialmente, influir de forma cada vez más precisa.
Y para entender cómo llegamos hasta acá, hay tres piezas clave que vale la pena explicar sin necesidad de un doctorado en inteligencia ariticial: RLHF, Alpha Persuasion y, ahora, Tribe v2.
Empecemos por RLHF, Reinforcement Learning from Human Feedback (aprendizaje por refuerzo a partir de feedback humano).
En términos simples, es el mecanismo mediante el cual los modelos de inteligencia artificial aprenden qué está “bien” y qué está “mal” según el criterio humano.
No nacen sabiendo responder correctamente ni siendo útiles; aprenden porque miles de personas evalúan sus respuestas y les dicen qué tipo de comportamiento es deseable.
Hasta acá, todo bastante inocente. Queremos máquinas que no sean inútiles ni peligrosas. El problema empieza cuando entendemos qué significa realmente “alinear con lo humano”.
Porque no existe una única forma de ser humano. Lo que RLHF hace no es alinearse con “la humanidad”, sino con una versión específica de ella: la que fue etiquetada, valorada y premiada durante el entrenamiento.
Si podés entrenar un sistema para que responda mejor, también podrías entrenarlo para que persuada mejor. Y ahí entramos en el segundo concepto.
Alpha Persuasion no es un producto concreto, sino una idea que está empezando a tomar forma: la capacidad de los sistemas de IA para optimizar mensajes con el objetivo de influir en decisiones humanas.
El paper de Nature “The potential of generative AI for personalized persuasion at scale” de 2024 ya alertaba acerca de este uso.
No se trata solo de generar texto coherente, sino de encontrar aquella formulación que maximiza la probabilidad de que una persona cambie de opinión, compre algo, haga clic o adopte una conducta específica.
Lo inquietante es que Alpha Persuasion no necesita ser explícita. Estamos hablando de microajustes: el tono, la palabra justa, la emoción que se activa.
Pequeños detalles que, sumados, pueden inclinar decisiones sin que el usuario perciba que está siendo influenciado.
Es persuasión optimizada por datos, pero ejecutada con la fluidez de una conversación humana.
La pregunta incómoda es obvia: ¿qué pasa si estos sistemas no están alineados con el bienestar del usuario, sino con los intereses de quien los controla? El riesgo no es solo la manipulación directa, sino la erosión progresiva de nuestra autonomía.
Si algo nos enseñan RLHF, Alpha Persuasion y Tribe v2, es que la próxima frontera de la tecnología no está en lo que las máquinas pueden hacer, sino en lo que pueden “hacernos hacer” a nosotros.
Y eso, por alguna razón, no suele aparecer en las presentaciones comerciales llenas de promesas optimistas.
