El empleo y Tú
Es fácil imaginar que la inteligencia artificial es un proceso abstracto y automático, algo que pasa detrás de escenas y que actúa bajo sus propios acuerdos. La verdad es que es todo menos eso. La inteligencia artificial requiere ser inventada y programada. La gente a cargo de esa labor es solo eso: gente. En ocasiones, cuando una persona programa en inteligencia artificial, digamos un algoritmo que automáticamente clasifica miles de solicitudes de empleo, los prejuicios e inclinaciones del programador son transmitidos en el código.
Los sesgos dentro de los sistemas de IA vienen directamente del comportamiento humano programado a imitar. Las investigaciones muestran que los currículum vitae con nombres que suenan en inglés son captados más frecuentemente para una entrevista que aquellos con nombres chinos, hindúes o pakistanís. Y puesto que la inteligencia artificial puede aprender de los datos y adaptarse, también podemos ver estas inclinaciones en los algoritmos, al favorecer candidatos de sexo masculino o femenino simplemente porque dentro de un periodo de tiempo ha habido mayores candidatos de ese sexo para un empleo en particular.
Las implicaciones de los sesgos en la inteligencia artificial dentro del mundo del empleo y reclutamiento son severas. Empresas como Delta, Dunkin e Ikea usan ahora IA para evaluar a los candidatos a un puesto de trabajo. Y mientras esto reduce significativamente el tiempo y trabajo empleado en el proceso, también resulta en discriminación hacia mujeres y gente de color.
¿Entonces qué es lo que debemos hacer? Para empezar, debemos programar a la IA para que detenga esos sesgos, no para que los produzca. La IA puede ser programada para ignorar cierta información demográfica de un candidato. Puede ser diseñada de manera que tome decisiones basadas en sus habilidades y su formación en lugar de otros criterios subjetivos; pero, sobre todo, necesita de la supervisión humana.