
Cuando los algoritmos aprenden nuestros prejuicios.
La Inteligencia Artificial (IA) suele presentarse como una tecnología objetiva, capaz de analizar datos y tomar decisiones sin prejuicios. Su base matemática, su rapidez y su apariencia técnica alimentan la idea de que se trata de una herramienta neutral, ajena a las emociones, a la ideología o a los intereses humanos. Sin embargo, esa imagen resulta engañosa, porque las matemáticas no eliminan los valores, sino que los convierten en reglas, variables y criterios de optimización. La IA no observa el mundo desde un punto de vista puro ni imparcial: aprende a partir de datos generados por personas, es diseñada por empresas o instituciones con fines concretos y se configura mediante decisiones humanas sobre qué información se utiliza, qué resultados se consideran correctos y qué margen de error se tolera. En este sentido, la inteligencia artificial no suprime la subjetividad, sino que con frecuencia la oculta bajo un lenguaje técnico que puede hacerla parecer incuestionable. Y eso es peligroso, porque la IA puede reproducir desigualdades ya existentes, amplificarlas o incluso ocultarlas bajo esa apariencia de objetividad.
Hablar de sesgo en Inteligencia Artificial significa hablar de decisiones injustas o engañosas producidas por sistemas que aprenden a partir de ejemplos previos. Un algoritmo discrimina porque detecta patrones en datos que ya contienen desigualdades sociales, estereotipos o exclusiones históricas. La máquina no inventa el prejuicio, pero sí puede automatizarlo y darle una apariencia de legitimidad.
Y esto supone un problema que no es solo técnico, de eficiencia informática. La IA, finalmente, no se limita a clasificar información, también toma decisiones, distribuye oportunidades, asigna riesgos y condiciona derechos. Puede influir en quién aparece más visible en una red social, quién accede a un empleo, quién recibe un préstamo o quién es considerado sospechoso. Estamos ante una cuestión de justicia.
Los sesgos de la inteligencia artificial se hacen evidentes en la generación de imágenes. Cuando se le pide a una herramienta como Gemini que cree la imagen de «una persona feminista», puede devolver, por ejemplo, una manifestación del 8M en la que solo aparecen mujeres, como si el feminismo fuera una identidad exclusivamente femenina y no una postura política o ética que también pueden compartir los hombres. Del mismo modo, al solicitar una imagen realista de «un migrante», la IA puede producir la figura de una mujer hispanoamericana en una especie de campamento de refugiados, como si la migración solo pudiera entenderse vinculada a determinados países y situaciones de vulnerabilidad. Sin embargo, una persona migrante puede ser cualquiera que se desplaza y establece su vida en otro país: desde una refugiada hasta un profesional europeo que cambia de residencia por motivos laborales, económicos o personales.

La otra cara del problema: cuando la IA corrige demasiado
En su intento por corregir esas injusticias, también puede caer en el error contrario: ofrecer una versión embellecida, suavizada o directamente distorsionada de la realidad. A este fenómeno se le conoce como sobrecorrección algorítmica y ocurre cuando, al intentar evitar prejuicios discriminatorios, los sistemas son ajustados de tal manera que dejan de reflejar la realidad con fidelidad y la deforman en sentido opuesto.
Este maquillaje algorítmico, en lugar de reparar una injusticia, produce una representación artificialmente equilibrada, moralmente tranquilizadora y empíricamente dudosa.
Un caso muy conocido fue el de Gemini, el generador de imágenes de Google, en 2024. Al pedir representaciones históricas —como soldados nazis o los Padres Fundadores de Estados Unidos— el sistema generaba imágenes con una diversidad racial que no correspondía al contexto histórico. Google reconoció el problema y suspendió temporalmente esa función. Lo que había fallado no era la intención inclusiva, sino la incapacidad del modelo para distinguir entre contextos donde la diversidad representativa era razonable y contextos donde resultaba claramente anacrónica.

Este tipo de error puede parecer menor o incluso simpático a primera vista, pero plantea una cuestión muy seria: ¿qué ocurre cuando una tecnología decide que es preferible ofrecer una imagen moralmente aceptable antes que una imagen verdadera?
Pero la sobrecorrección no afecta solo a la generación de imágenes; también se manifiesta en modelos de lenguaje que suavizan sistemáticamente datos negativos sobre determinados grupos o que evitan mencionar hechos incómodos para no parecer insensibles, construyendo así una realidad edulcorada, pero menos precisa. Esto sucede, en parte, por una fuerte presión reputacional y comercial: las empresas tecnológicas temen mucho más el escándalo por reproducir un sesgo discriminatorio visible que la crítica derivada de idealizar la realidad. En cualquier caso, conviene recordar que maquillar una realidad desigual no equivale a transformarla.
Sobrecorrección algorítmica no es igual a discriminación positiva. En el ámbito jurídico y político, esa última expresión se refiere a medidas explícitas, debatidas y justificadas para compensar desigualdades estructurales. Este sesgo, en cambio, es una intervención poco visible, no debatida públicamente y aplicada de forma automática: no es el resultado de una decisión democrática, sino una corrección incorporada al sistema sin que el usuario sepa cuándo, cómo ni por qué se ha producido.
Desafíos y propuestas de mejora
La solución no resulta sencilla. En el ámbito de la Inteligencia Artificial, distintas métricas de imparcialidad pueden ser incompatibles entre sí; optimizar un criterio de justicia puede, al mismo tiempo, empeorar otro. Esta incompatibilidad refleja un hecho fundamental: no existe una solución neutra, ya que incluso la noción de justicia depende de valores, contextos y decisiones humanas.
Frente a esta disyuntiva, conviene definir varias líneas de actuación. En primer lugar, la transparencia: los sistemas de Inteligencia Artificial deberían comunicar de manera explícita cuándo se han realizado modificaciones para corregir sesgos y explicar los criterios empleados para ello. En segundo lugar, la participación social: tanto los expertos como la ciudadanía deberían formar parte del proceso que determine qué imágenes, datos o resultados se consideran “justos”, en contraste con la situación actual, en la que estas decisiones son adoptadas únicamente por empresas privadas.