Una investigadora del MIT revela cómo ciertos programas fallan a la hora de reconocer rostros oscuros.
Años atrás, en lo que puede parecer un pasado muy distante, las fotografías eran tomadas empleando rollos fotográficos. Estos consistían en una película en la que se combinaban una serie de compuestos químicos para capturar los distintos colores que componen una imagen. A pesar de que estos rollos eran producidos industrialmente, en la composición de estos (al menos hasta los años ’70) intervenía el criterio subjetivo de los fabricantes con un resultado muy peculiar: las personas de piel clara eran las que mejor salían retratadas.
El problema tiene su origen en la calibración de la película. El personal de Kodak, el mayor fabricante de estas, escogió como patrón a una simpática mujer caucásica, llamada Shirley. La gente quedaba bien retratada si tenía un color semejante al de ella. Y así fue por décadas, hasta que en los años ‘70 los fabricantes de muebles notaron que sus catálogos no se veían bien. Poco después, el patrón de los rollos fotográficos cambió para ser más asertivo incluyendo mujeres de diversas razas.
Difícil no recordar esta historia tras leer la reciente noticia sobre la imprecisión de los sistemas de reconocimiento facial. Estos, que aparecen por primera vez a inicios de los años ’90, emplean diversos algoritmos para comparar dos rostros y determinar si representan a la misma persona. Diversas pruebas demuestran que, si no eres blanco, los algoritmos no te reconocen de manera correcta.
Así lo da a conocer Joy Buolamwini, investigadora del MIT. Ella construyó un álbum con 1270 rostros de legisladores de tres países africanos y tres nórdicos para luego probar la exactitud de los programas de reconocimiento facial de Microsoft, IBM y Megvii. Para ello, catalogó el color de piel mediante un sistema empleado por los dermatólogos. ¿El resultado?
El producto de Microsoft presentó una tasa de error de 21% a la hora de reconocer rostros de mujeres de piel oscura, mientras que IBM y Megvii tuvieron un error casi del 35 por ciento. ¿La tasa de error para hombres de piel clara? Por debajo del 1% en todos los casos. Con estos números, se hace evidente que los algoritmos de estas empresas, al igual que en un inicio sucedió con los químicos de Kodak, no han sido calibrados para trabajar con todas las personas.
Lejos de detenerse, Buolamwini ha fundado el colectivo “Algorithmic Justice League”, una organización que pretende da a conocer los sesgos que pueden encontrarse en los algoritmos de computadoras que impactan en nuestras vidas. Por lo pronto, como reacción a su estudio, Microsoft ha señalado que mejorará el programa.