Pasar al contenido principal
Influencia de la inteligencia artificial en el ser humano

La IA amplifica nuestros sesgos

Los sistemas de inteligencia artificial (IA) tienden a asumir los sesgos humanos y amplificarlos, lo que provoca que las personas que usan esa IA se vuelvan más parciales, según un nuevo estudio de investigadores de la University College of London (UCL).

El estudio asegura que se puede formar el efecto de 'bola de nieve' en el que los sesgos minúsculos en los datos originales son amplificados por la IA, lo que aumenta los sesgos de la persona que usa la IA.
El estudio asegura que se puede formar el efecto de 'bola de nieve' en el que los sesgos minúsculos en los datos originales son amplificados por la IA, lo que aumenta los sesgos de la persona que usa la IA.

Los sesgos humanos y de la IA pueden crear un ciclo de retroalimentación en el que pequeños sesgos iniciales aumentan el riesgo de error humano, según los hallazgos publicados en Nature Human Behaviour. Los investigadores demostraron que el sesgo de la IA puede tener consecuencias en el mundo real, ya que descubrieron que las personas que interactuaban con IA sesgadas tenían más probabilidades de subestimar el desempeño de las mujeres y sobreestimar la probabilidad de los hombres blancos de ocupar puestos de alto estatus.

La profesora Tali Sharot (UCL Psychology & Language Sciences, Max Planck UCL Centre for Computational Psychiatry and Ageing Research, y Massachusetts Institute of Technology) y coautora principal afirmó que “las personas tienen prejuicios por naturaleza, por lo que cuando entrenamos sistemas de IA con conjuntos de datos producidos por personas, los algoritmos de IA aprenden los prejuicios humanos que están incorporados en los datos. Luego, la IA tiende a explotar y amplificar estos prejuicios para mejorar la precisión de sus predicciones”.

Según Sharot, “aquí hemos descubierto que las personas que interactúan con sistemas de IA sesgados pueden volverse aún más sesgadas, lo que crea un posible efecto de bola de nieve en el que los sesgos minúsculos en los conjuntos de datos originales son amplificados por la IA, lo que aumenta los sesgos de la persona que usa la IA”.

Los investigadores realizaron una serie de experimentos con más de 1.200 participantes del estudio que completaban tareas e interactuaban con sistemas de IA.

Metodología

Como paso previo a uno de los experimentos, los investigadores entrenaron un algoritmo de IA con un conjunto de datos de respuestas de los participantes. Se pidió a las personas que juzgaran si un grupo de rostros en una foto parecía feliz o triste, y demostraron una ligera tendencia a juzgar los rostros como tristes con más frecuencia que como felices. La IA aprendió este sesgo y lo amplificó hasta convertirlo en un sesgo mayor hacia juzgar los rostros como tristes.

Otro grupo de participantes completó la misma tarea, pero también se les dijo qué juicio había hecho la IA sobre cada foto. Después de interactuar con este sistema de IA durante un tiempo, este grupo de personas internalizó el sesgo de la IA y era incluso más propenso a decir que las caras se veían tristes que antes de interactuar con la IA. Esto demuestra que la IA aprendió un sesgo de un conjunto de datos derivado de humanos y luego amplificó los sesgos inherentes de otro grupo de personas.

Los sistemas de IA sesgados pueden alterar las propias creencias de las personas

Los investigadores encontraron resultados similares en experimentos en los que se utilizaron tareas muy diferentes, como evaluar la dirección en la que se movía un conjunto de puntos en una pantalla o, en particular, evaluar el desempeño de otra persona en una tarea, en los que las personas eran particularmente propensas a sobrestimar el desempeño de los hombres después de interactuar con un sistema de IA sesgado (que se creó con un sesgo de género inherente para imitar los sesgos de muchas IA existentes). Los participantes en general desconocían el alcance de la influencia de la IA.

Cuando a las personas se les dijo falsamente que estaban interactuando con otra persona, pero en realidad estaban interactuando con una IA, internalizaron los sesgos en menor medida, lo que según los investigadores podría deberse a que las personas esperan que la IA sea más precisa que un humano en algunas tareas.

El coautor principal del estudio, Moshe Glickman, afirmó que “no solo las personas sesgadas contribuyen a las IA sesgadas, sino que los sistemas de IA sesgados pueden alterar las propias creencias de las personas, de modo que las personas que usan herramientas de IA pueden terminar volviéndose más sesgadas en dominios que van desde los juicios sociales hasta la percepción básica.

“Sin embargo, también descubrimos que interactuar con IA precisas puede mejorar el juicio de las personas, por lo que es vital que los sistemas de IA se perfeccionen para que sean lo más imparciales y precisos posible”, añadió.