Meta Platforms Inc. anunció el 26 de marzo el lanzamiento de Tribe v2, un modelo multimodal de codificación cerebral diseñado para predecir las reacciones mentales humanas frente a diversos estímulos como video, audio y texto. Este desarrollo fue presentado por la empresa en modalidad opensource, permitiendo el acceso libre de investigadores y la comunidad en general a sus capacidades y código fuente.
El modelo Tribe v2 forma parte de la estrategia de Meta para avanzar en tecnologías de inteligencia artificial que buscan comprender y anticipar las respuestas humanas ante contenidos naturales. De acuerdo con la compañía, la plataforma fue desarrollada con el objetivo de aportar herramientas avanzadas para investigaciones en neurociencias, comunicación y análisis de datos conductuales. Mark Zuckerberg, CEO de Meta, lideró personalmente la presentación y despliegue de esta tecnología, indicando que el modelo apunta a una mejor interpretación del comportamiento y los procesos grupales.
El desarrollo de inteligencias artificiales alineadas al comportamiento humano
El entrenamiento de sistemas de inteligencia artificial ha evolucionado rápidamente gracias a técnicas como el Reinforcement Learning from Human Feedback (RLHF). Este tipo de aprendizaje utiliza las evaluaciones de miles de personas para identificar y reforzar los comportamientos que son considerados adecuados según criterios humanos. De acuerdo con expertos en IA, este método permite ajustar las respuestas de los modelos para que sean más útiles, claras y empáticas a lo largo del tiempo.
El proceso de RLHF consiste en que los sistemas reciben una retroalimentación positiva o negativa según su desempeño, lo que moldea su comportamiento a través de sucesivas iteraciones. Dicha metodología ha sido clave para que las plataformas actuales puedan interactuar de manera cada vez más natural con los usuarios.
Sin embargo, diversos investigadores han señalado que el alineamiento de las máquinas se realiza en torno a una representación específica de lo humano, determinada por quienes participan en las fases de entrenamiento y etiquetado de datos. Esto implica que los modelos adquiridos pueden reproducir patrones culturales, sociales o incluso sesgos propios de los grupos evaluadores.
Estrategias de persuasión y entendimiento grupal en IA
En estudios recientes, la comunidad científica ha introducido el concepto de Alpha Persuasion, que hace referencia a la capacidad de los sistemas de IA de optimizar mensajes para influir en las decisiones humanas. Un artículo publicado en la revista Nature en 2024, titulado “The potential of generative AI for personalized persuasion at scale”, advirtió que los modelos generativos pueden analizar miles de variantes de un mismo mensaje y seleccionarlas según el perfil psicológico de cada usuario, con el objetivo de maximizar determinados resultados conductuales.
Este enfoque, según los autores del paper, supera las técnicas tradicionales de A/B testing y permite una personalización a gran escala que se ajusta no solo a intereses personales, sino también a variables emocionales y sociales. La persuasión se realiza a través de microajustes en el tono, el vocabulario o la secuencia de argumentos, factores que pueden incidir en la recepción de los mensajes sin necesidad de utilizar mecanismos explícitos de propaganda.
El modelo Tribe v2, desarrollado por Meta, representa una generación avanzada de sistemas capaces de identificar y entender dinámicas grupales, identidades y pertenencias colectivas. La compañía explicó que, a diferencia de otros modelos entrenados únicamente para mejorar la precisión individual, Tribe v2 considera los códigos sociales, normas implícitas y contextos culturales que influyen en las decisiones dentro de distintas comunidades.
Según Meta, la funcionalidad de Tribe v2 permite a los investigadores analizar cómo se construyen consensos, qué mensajes resuenan más en determinados grupos y cómo cambian las narrativas según el contexto compartido por una colectividad. Esto implica que la inteligencia artificial puede adaptar sus interacciones teniendo en cuenta no solo al usuario individual, sino a los marcos sociales en los que participa.
La empresa publicó material de soporte visual y técnico para ilustrar el funcionamiento del modelo. En la presentación, Mark Zuckerberg reiteró que el objetivo es fomentar proyectos de investigación responsables y transparentes, así como facilitar el desarrollo de aplicaciones prácticas en áreas científicas y académicas.
La aparición y combinación de técnicas como RLHF, Alpha Persuasion y Tribe v2 ha sido considerada por diversos analistas como uno de los desarrollos más importantes en el campo de la inteligencia artificial orientada a la comprensión de la conducta y la interacción social. El acceso abierto de Tribe v2 permite su utilización para fines de investigación en entornos académicos y técnicos de todo el mundo, quienes analizarán su impacto en los próximos meses.









