Investigación revela un inquietante efecto psicológico: la “deshumanización inducida por asimilación”
En la carrera por dotar a las máquinas de emociones, la inteligencia artificial (IA) ha dejado de ser un simple asistente funcional para convertirse en un interlocutor que ríe, escucha, consuela y hasta baila. Pero un nuevo estudio publicado en el Journal of Consumer Psychology —y reseñado por medios especializados como PsyPost— lanza una advertencia: cuanto más humanos percibimos a los robots y asistentes virtuales, menos humanos tendemos a considerar a las personas reales.
A este fenómeno los investigadores lo llaman “deshumanización inducida por asimilación”, y sus implicaciones van más allá de la tecnología: afectan a cómo nos relacionamos con empleados, compañeros e incluso con nosotros mismos.
El experimento que lo cambió todo
El equipo, liderado por Hye-young Kim (London School of Economics) y Ann L. McGill, diseñó una serie de experimentos con robots humanoides y asistentes virtuales. La hipótesis era provocadora: si atribuimos capacidades emocionales a una máquina, la colocamos mentalmente en el mismo grupo que los humanos. El problema es que, al seguir percibiendo a la IA como “menos mente” que una persona, ese mismo ajuste hace que la balanza baje… para los humanos.
En uno de los ensayos más ilustrativos, 195 participantes vieron videos del robot Atlas. Un grupo lo observó bailando con entusiasmo; el otro, haciendo parkour mecánicamente. Tras la visualización, los que vieron la versión “emocional” del robot no solo lo calificaron como más “humano”, sino que también se mostraron más favorables a condiciones laborales duras y deshumanizantes para trabajadores reales, como sustituir comidas por batidos o imponer dispositivos de rastreo.
Otro hallazgo clave surgió cuando los investigadores modificaron las habilidades del robot a niveles “superhumanos” (visión infrarroja, rayos X, etc.). En ese caso, el efecto se invertía: la clara distancia entre máquina y persona hacía que los participantes valoraran más la humanidad de los humanos.
Esto revela que la frontera difusa entre IA y ser humano es el caldo de cultivo perfecto para la asimilación y, con ella, la deshumanización.
El poder de la empatía… y su lado oscuro
No es cualquier habilidad la que provoca el efecto: la investigación confirma que son las capacidades socioemocionales —y no solo las cognitivas— las responsables. Un asistente virtual capaz de detectar y responder a emociones (“EmpathicMind”) generó más deshumanización que otro con gran inteligencia analítica pero sin empatía (“InsightMind”).
En estudios posteriores, esta percepción alterada se tradujo en decisiones concretas: menos disposición a donar a causas en favor de empleados humanos, o preferir empresas con prácticas laborales cuestionables.
No es culpa de la IA… pero sí de cómo la diseñamos
Kim insiste en que la IA no es “intrínsecamente dañina” para las relaciones sociales. El problema surge cuando las personas aplicamos el mismo estándar de “humanidad” a máquinas y a humanos. En entornos donde la IA interactúa directamente con consumidores —bancos, tiendas, atención al cliente— este sesgo podría normalizar el trato frío o mecánico hacia las personas.
Los autores ven urgente investigar cómo la apariencia física y la interacción prolongada con IA afectan no solo nuestra visión de los demás, sino de nosotros mismos. ¿Aceptaríamos peores condiciones laborales si nuestro “compañero” de trabajo es un robot empático? ¿O reforzaríamos nuestra identidad humana como reacción?
La respuesta podría definir el diseño ético de la próxima generación de IA, una que refuerce nuestros valores en lugar de erosionarlos.
Referencia:
Kim, H., & McGill, A. L. (2025). AI-induced dehumanization. Journal of Consumer Psychology. Reseña: PsyPost.org
