¿Está la Inteligencia Artificial (IA) generando entornos de trabajo más deshumanizados?
01.05.2026
Hoy nuestra principal fuente de financiamiento son nuestros socios. ¡ÚNETE a la Comunidad +CIPER!
01.05.2026
Los autores de esta columna analizan el impacto de la inteligencia artificial en los contextos laborales. Alertan del peligro que la interacción con esta tecnología tiene sobre las relaciones interpersonales, y que «esta deshumanización tiene consecuencias conductuales: las personas se vuelven menos empáticas y más propensas a aceptar o justificar tratos negativos hacia otros. Mientras más humana es la herramienta, más cómo herramienta tratamos a nuestros compañeros y compañeras».
No hay duda de que en los tiempos contemporáneos estamos asistiendo a una verdadera revolución a partir de la implementación inicial de una tecnología de vanguardia como es la Inteligencia Artificial (IA, de aquí en adelante). Prácticamente todos los ámbitos de funcionamiento han sido impactados por ella, estando ampliamente integrada en la sociedad como señalan diversos autores recientes tales como Dang y Liu (2025), en formas que van desde simples chatbots y asistentes virtuales hasta algoritmos complejos y robótica. Estos mismos autores señalan que las implicancias positivas de la IA son muchas, en variados ámbitos, lo que incluye al ámbito del trabajo. Se menciona, por ejemplo, su impacto psicosocial positivo en el mejoramiento de habilidades sociales y salud mental, así como en el aumento del nivel de autoeficacia de las personas.
Pero no todo lo que brilla es oro, una espada también sabemos que puede tener doble filo. En esta columna de opinión les invitamos a una breve reflexión basada en algunas evidencias disponibles acerca de los potenciales efectos psicosociales negativos de la IA, en concreto cómo el trabajo puede deshumanizarse si no tenemos los resguardos correspondientes.
Un primer eje de análisis lo tomamos a partir del citado trabajo de Dang y Liu. De acuerdo con esta revisión publicada en la importante revista de la Asociación Estadounidense de Psicología (APA) “American Psychologist”, lo primero que habría que preguntarse es si la IA, sin desconocer sus potenciales beneficios, conlleva consecuencias negativas tales como la negación de la humanidad para sus usuarios en determinados contextos y situaciones.
Para responder esta pregunta, los autores dividen la deshumanización inducida por el uso de la IA en tres niveles: interacción humano-IA, dinámicas intrapersonales y relaciones interpersonales. En otras palabras, proponen que la implementación de la IA puede generar riesgos de metadeshumanización, deshumanización propia y deshumanización ajena para los usuarios en determinadas situaciones.
Concretamente, en el ámbito de la interacción entre humanos e IA, los usuarios de la IA perciben que esta resta importancia a su humanidad. En el ámbito de la dinámica intrapersonal, los usuarios de la IA pueden deshumanizarse a sí mismos. Y en el ámbito de las relaciones interpersonales, las personas sin conocimientos especializados deshumanizan a los usuarios de la IA. Todo ello puede traer distintas consecuencias psicosociales no deseadas: sentirse tratados como objetos por la IA, con la IA negando la singularidad humana, lo que lleva a resistencia; percibirse a sí mismos como incompetentes, socialmente desconectados y carentes de control, lo que lleva a cierto distanciamiento y a conductas poco saludables; o bien a negar emocional y racionalmente a los usuarios, lo que puede conllevar dinámicas sociales negativas y rozar los límites de lo ético en el uso de la IA, entre otros.
En otras palabras, la era de la IA ha sido muy beneficiosa, no obstante se puede correr el riesgo de deshumanizar la actividad humana, especialmente la del trabajo, tratando a las personas como datos o extensiones de máquinas, en lugar de seres humanos, lo que puede afectar dimensiones como las antes señaladas, principalmente concernientes a la autonomía, las relaciones interpersonas y al bienestar.
Un segundo eje de análisis es el introducido en el trabajo Kim y McGill (2025). De acuerdo con este trabajo de base, distintas compañías líderes en IA, cómo Anthropic, OpenAI y Google, han dedicado, y dedican al día de hoy un gran esfuerzo para lograr que sus sistemas de IA actúen de la forma más humana posible. La lógica es que mientras más humana sea la interacción, más profundos será los lazos, más personalizada la experiencia y más frecuente será el uso de estas herramientas.
Con el objetivo de lograr la mayor cantidad de usos posibles (los cuales se traducen en más tokens gastados y más ganancias para las empresas), la misma IA fomenta que se le retroalimente de su desempeño y se le den instrucciones de forma progresivamente más parecida a que si de un colega se tratase, respondiendo “¿Cómo lo hice?”, “¿Cómo seguimos?” o “¿Ahora te gustaría qué?”. Por su parte, las mismas personas han humanizado la IA, diciéndole hola, por favor y gracias en sus mensajes, llegando a percibir que actúa de mejor manera cuando se le trata con “educación”. Las empresas parecen empeñadas en lograr que olvidemos por un momento que la IA no es consciente, y le tratemos como un compañero de equipo más.
En paralelo, los avances en inteligencia artificial pueden tener un efecto inesperado en cómo percibimos a otras personas: cuando las IA parecen más “humanas”, especialmente porque expresan o comprenden emociones, las personas tienden a atribuirles una mente similar a la humana. Esto activa un proceso psicológico de asimilación, en el que las evaluaciones de lo humano se acercan a las de la IA; como estas siguen siendo percibidas como “menos humanas” que las personas reales, terminan reduciendo la percepción de humanidad en los demás, lo que constituye una forma de deshumanización. Este efecto no ocurre simplemente porque la IA sea inteligente, sino específicamente cuando muestra capacidades socioemocionales. Además, esta deshumanización tiene consecuencias conductuales: las personas se vuelven menos empáticas y más propensas a aceptar o justificar tratos negativos hacia otros. Mientras más humana es la herramienta, más cómo herramienta tratamos a nuestros compañeros y compañeras.
Por último, tomando como eje de análisis el trabajo de Bender (2024), podemos plantear que muchas prácticas de implementación de la IA en las organizaciones tienden a reducir la complejidad humana a datos medibles, lo que puede llevar a decisiones laborales deshumanizadas, como evaluaciones automatizadas de desempeño, contratación basada en patrones superficiales o clasificación de trabajadores sin considerar su contexto. Además, la idea de que las máquinas son más “objetivas” puede justificar la delegación de decisiones importantes a sistemas que en realidad reproducen sesgos presentes en los datos (por ejemplo, de género o raza), ayudando a perpetuar desigualdades históricas. El uso de la IA, también suele invisibilizar el fenómeno del “ghost work”, donde gran parte del trabajo humano que sostiene la IA (como etiquetar datos o moderar contenido) queda oculto y se trata como si fuera parte de la misma máquina.
En suma, el mensaje final es que no podemos dejar que una herramienta cada vez más humana nos aleje de ser personas.