Científicos comprobaron que el antiguo algoritmo de Twitter discriminaba rostros que no sean "femeninos, delgados, blancos y jóvenes"
En un concurso organizado por la propia red social, varios investigadores estudiaron el programa que destaca y encuadra las imágenes de esta plataforma. Un científico ucraniano consiguió el primer puesto al revelar este "comportamiento" algorítmico.
Luego de que un estudiante universitario descubriese que Twitter encuadraba a rostros blancos en la previsualización de fotos con más de una cara u objeto, un científico de la Universidad de Politécnica de Lausana, en Suiza, confirmó que el algoritmo de Twitter efectivamente realiza ese recorte y "discriminaba" algunas caras.
El algoritmo había sido eliminado de Twitter, luego de las quejas de los usuarios, que aseguraban que el programa elegía rostros femeninos, blancos, delgados, jóvenes y con un tono cálido y bien contrastado.
Trying a horrible experiment...
— Tony “Abolish ICE” Arcieri ���� (@bascule) September 19, 2020
Which will the Twitter algorithm pick: Mitch McConnell or Barack Obama? pic.twitter.com/bR1GRyCkia
“En mi investigación generé varias caras artificiales y las modifiqué no arbitrariamente, sino de una manera muy específica para ver en cuáles el algoritmo incrementaba la prominencia”, explicó Bogdan Kulynych, doctorando de la Universidad Politécnica de Lausane a El País en una conversación por videoconferencia.
Kulunych había participado del concurso que terminó en agosto, basado en una competición entre informáticos a quienes se permitió analizar el algoritmo. Y se les ofreció una recompensa por sus hallazgos.
Además, el especialista en sistemas y algoritmos, agregó: “Seleccioné solo un pequeño grupo de 16 caras por problemas de tiempo y porque el proceso computacional es largo. Eran caras diversas y al final vi patrones. El algoritmo daba más prominencia a caras más jóvenes, delgadas, con más calidez y rasgos femeninos”.
Aunque la muestra de Kulynych es pequeña porque la competición dejaba solo una semana para participar, cree que es probable que el problema fuera “fundamental” y ocurriera igual si se repitiera con una muestra de caras mayor. “Aunque sospecho que con ese análisis más extenso la diferencia sería menos pronunciada o que los patrones serían menos claros”, aclaró.
Twitter finalmente eliminó este algoritmo en mayo pasado y ahora ofrece la posibilidad de que cada usuario pueda recortar la parte que quiere que se vea de la imagen de previsualización.
“Es una buena opción”, opinó Kulynych, quien señaló que ese tipo de algoritmos no se ponen de momento a disposición de investigadores externos para ver si hay sesgos o errores, dice Kulynych, aunque son una parte central de las tecnológicas.
Testing this to see if it's real. pic.twitter.com/rINjaNvXaj
— Jef Caine (@JefCaine) September 19, 2020
“Aparte de los errores, están los problemas en los algoritmos que emergen debido a la estructura de incentivos y optimización de beneficios dentro de las compañías”, dijo Kulynych, que agregó que “con estos no organizan competiciones porque no son errores como tales” y que “solo pueden resolverse desde fuera y para ello sería necesaria la regulación para retos como la mitigación de la desinformación en redes sociales, o aumento de la gentrificación en plataformas como Airbnb”. Sin embargo, remarcó que la capacidad de autorregulación de estas empresas “es limitada”.
Qué son los algoritmos y cómo funcionan
Un algoritmo es un programa que ordena resultados a partir de datos que se le proporcionan. En el caso de Twitter escogía el fragmento (los píxeles) de una imagen que creía que iba a ser más interesante para destacarlo y que los usuarios de Twitter lo vieran en sus pantallas.
Este algoritmo proviene de un modelo elaborado a partir de seguir la mirada humana cuando aparece una imagen en una pantalla. Y supuestamente los humanos prefieren "caras de piel clara, femeninas, delgadas, jóvenes, y con un tono cálido y bien contrastado".
En un estudio previo al concurso que hizo la propia red social, y en el que ya se veía cierto sesgo, también analizaron lo que llaman la “mirada masculina”: a veces el algoritmo se centraba en zonas del cuerpo femenino que no eran la cara, lo que, según el artículo científico, se originaba en “la representación constante de las mujeres como objetos sexuales para el placer desde la perspectiva de los hombres heterosexuales”.
Rumman Chowdhury, nueva directora (se incorporó en febrero) de Ética de Machine Learning de Twitter admitió la obviedad de que los sesgos de los algoritmos se basan en automatizar lo que los humanos hacemos de forma natural: “Hemos creado estos filtros porque creemos que eso es lo que es ‘bonito’, y eso termina entrenando nuestros modelos y llevándonos a estas nociones irreales de lo que significa ser atractivo”.