Inteligencia artificial, con todo por avanzar Abril 2026 | Page 66

Meta acaba de presentar Tribe v2, un modelo multimodal de codificación cerebral que predice las respuestas de la mente ante estímulos naturales (video, audio, texto). Lo hizo en modalidad open source: libre, para que todo el mundo pueda usarlo como modelo de investigación.

¿Por qué preocuparse? Vivimos en una época en la que la tecnología dejó de ser una herramienta pasiva para convertirse en un sistema activo de interpretación humana. Durante años, las plataformas digitales aprendieron a observarnos: qué clickeamos, cuánto tiempo miramos una pantalla, qué evitamos, qué nos incomoda. Eso fue apenas el primer paso. Hoy estamos en una fase mucho más sofisticada, donde no sólo se observa el comportamiento, sino que se entrena a las máquinas para comprenderlo, anticiparlo y, potencialmente, influir de forma cada vez más precisa.

Para entender cómo se llegó hasta acá, vale la pena analizar tres piezas clave: RLHF, Alpha Persuasion y Tribe v2.

1- RLHF es el mecanismo mediante el cual los modelos de inteligencia artificial aprenden qué está “bien” y qué está “mal” según el criterio humano. Aprende porque miles de personas evalúan sus respuestas y les dicen, explícita o implícitamente, qué tipo de comportamiento es deseable.

Si el modelo responde de forma clara, útil o empática, recibe una especie de recompensa matemática. Si responde mal, se penaliza. Con el tiempo, ese sistema va moldeando el comportamiento del modelo para alinearlo con expectativas humanas. Así, convierte una inteligencia artificial cruda en algo que entiende, ayuda y hasta cae bien.

El problema empieza cuando se pasa en limpio qué es realmente “alinear con lo humano”, porque no existe una única forma de ser humano. RLHF no se alinea con “la humanidad”, sino con una versión específica de ella, la que fue etiquetada, valorada y premiada en el entrenamiento. Primera grieta: si se puede entrenar un sistema para que responda mejor, también se lo podría entrenar para que persuada mejor.

2- Alpha Persuasion es una idea que empieza a tomar forma en laboratorios de investigación y equipos de producto y apunta a la capacidad de la IA para influir en decisiones humanas. No se trata sólo de generar un texto coherente, sino de encontrar, entre miles de variantes posibles, la fórmula más adecuada para que una persona cambie de opinión, compre algo o adopte una conducta específica.

Lo más inquietante es que Alpha Persuasion no necesita ser explícita. No se trata de propaganda burda o mensajes obvios, sino de microajustes: el tono, la palabra justa, la pausa, el orden de los argumentos, la activación emocional. Pequeños detalles que pueden inclinar decisiones sin que el usuario lo perciba. Suena potente, pero todavía falta la tercera pieza.

3- Tribe v2 va a lo más profundo: construye modelos capaces de entender dinámicas sociales, pertenencia grupal e identidad. Busca que entienda a qué grupo perteneces, cómo pensás dentro de ese grupo y qué tipo de mensajes resuenan en ese contexto. Es que no somos individuos aislados; somos parte de tribus, de comunidades, de marcos culturales que condicionan nuestras decisiones. Lo que Tribe v2 intenta es capturar esas normas implícitas, esos códigos compartidos, los sesgos colectivos. Así, una inteligencia artificial podría saber que te interesa un tema, cómo se discute ese tema en tu grupo de referencia, qué opiniones son aceptables y cuáles no, y qué tipo de narrativa tiene más chances de ser adoptada.

Una combinación explosiva

Cuando se combinan los conceptos, se construye una arquitectura tecnológica capaz de aprender de nosotros, influirnos y contextualizar esa influencia en nuestras identidades sociales. Se trata de sistemas que entienden qué decimos, por qué lo decimos, con quién lo compartimos y cómo modificar ese comportamiento de forma sutil y efectiva.

La pregunta incómoda es: ¿qué pasa si estos sistemas no están alineados con el bienestar del usuario sino con los intereses de quien los controla? Porque la historia reciente de la tecnología no es precisamente un ejemplo de autocontrol corporativo. Las redes sociales ya demostraron que, cuando el incentivo es maximizar tiempo de uso o engagement, el sistema tiende a empujar contenidos que generan reacciones emocionales intensas, aunque eso implique polarización, ansiedad o desinformación. Ahora es posible imaginar ese mismo incentivo, pero con herramientas mucho más sofisticadas.

En ese escenario, la manipulación se convierte en un proceso continuo, personalizado y prácticamente invisible. No hace falta mentir; alcanza con enfatizar ciertos aspectos, omitir otros, y elegir el momento adecuado para mostrar un mensaje. Un sistema que entiende tu estado emocional, tu contexto social y tus patrones de decisión puede intervenir con una precisión quirúrgica, y lo puede hacer sin que lo percibas como una intervención externa. Se sentiría como una idea propia.

Esto abre la puerta a escenarios que hace unos años parecían exagerados.

- Campañas políticas hiper segmentadas que no sólo adaptan el mensaje, sino que lo ajustan dinámicamente en función de la reacción emocional del votante.

- Plataformas de consumo que no sólo recomiendan productos, sino que modelan deseos.

- Sistemas educativos que, en lugar de expandir el pensamiento crítico, refuerzan determinadas visiones porque “funcionan mejor” en términos de engagement.

- Relaciones humanas mediadas por agentes que aprenden a ser gustados, validados y a generar apego, desplazando vínculos reales. El riesgo no es sólo la manipulación directa, sino la erosión progresiva de nuestra autonomía.

Cuando las decisiones empiezan a ser influenciadas de forma sistemática por sistemas que entienden mejor que nosotros mismos nuestros sesgos y vulnerabilidades, la línea entre elección y condicionamiento se vuelve difusa. Eso tiene implicancias culturales profundas, porque no se trata sólo de qué compramos o a quién votamos, sino de cómo construimos nuestras opiniones, identidades y relaciones.

La discusión no pasa por si estas tecnologías son buenas o malas, sino bajo qué condiciones se desarrollan y se utilizan. Qué tipo de regulación se establece para que no se convierta en una herramienta de explotación, y cómo preservar espacios de decisión autónomos en un entorno cada vez más mediado por sistemas inteligentes.

La verdadera influencia tecnológica de estas tecnologías, es antropológica. Estamos creando sistemas que operan sobre la materia prima más sensible que tenemos: nuestras emociones, nuestras creencias, nuestra necesidad de pertenencia. Esto exige un nivel de responsabilidad que todavía no estamos demostrando como sociedad. La tecnología avanzó más rápido que nuestra capacidad de entender sus consecuencias.

No se trata de caer en un pesimismo apocalíptico ni de frenar la innovación. Sería bastante inútil, además de ingenuo, pero sí debemos reconocer que se ingresa en un terreno nuevo, donde las reglas del juego no están del todo claras y los incentivos económicos pueden empujar en direcciones poco saludables. Y en ese contexto, la vigilancia crítica, la educación y la construcción de marcos éticos sólidos dejan de ser opcionales.

La próxima frontera de la tecnología no está en lo que las máquinas pueden hacer, sino en lo que pueden “hacernos hacer” a nosotros. Y eso, por alguna razón, no suele aparecer en las presentaciones comerciales llenas de promesas optimistas.

La próxima frontera tecnológica no está en lo que las máquinas puedan hacer, sino en lo que pueden “hacernos hacer”.

ANÁLISIS. EL LADO OSCURO

Del libre albedrío al condicionamiento y la manipulación

INTELIGENCIA ARTIFICIAL

Por Eduardo Laens (*)

La próxima frontera de la tecnología está en lo que pueden “hacernos hacer”.

La próxima frontera de la tecnología está en lo que pueden “hacernos hacer”.