Twitter estaba investigando por qué la red neuronal que utiliza para generar vistas previas de fotos aparentemente elige mostrar las caras de las personas blancas con más frecuencia que las caras de los negros.
Varios usuarios de Twitter demostraron el problema durante el fin de semana, publicando ejemplos de publicaciones que tenían la cara de una persona negra y la cara de una persona blanca. La vista previa de Twitter mostró las caras blancas con más frecuencia.
La prueba informal comenzó después de que un usuario de Twitter intentó publicar sobre un problema que notó en el reconocimiento facial de Zoom, que no mostraba el rostro de un colega Black en las llamadas. Cuando publicó en Twitter, notó que también estaba favoreciendo su cara blanca sobre la cara de su colega negro.
Los usuarios descubrieron que el algoritmo de vista previa también eligió personajes de dibujos animados que no eran negros.
Cuando Twitter comenzó a usar la red neuronal para recortar automáticamente las vistas previas de las fotos, los investigadores de aprendizaje automático explicaron en una publicación de blog cómo comenzaron con el reconocimiento facial para recortar imágenes, pero encontraron que faltaba, principalmente porque no todas las imágenes tienen caras:
Anteriormente, usamos la detección de rostros para enfocar la vista en el rostro más prominente que pudimos encontrar. Si bien esta no es una heurística irrazonable, el enfoque tiene limitaciones obvias ya que no todas las imágenes contienen rostros. Además, nuestro detector de rostros a menudo pasaba por alto los rostros y, a veces, detectaba rostros por error cuando no había ninguno. Si no se encontraran rostros, enfocaríamos la vista en el centro de la imagen. Esto podría dar lugar a imágenes de vista previa recortadas de forma incómoda.
El director de diseño de Twitter, Dantley Davis, tuiteó que la compañía estaba investigando la red neuronal, mientras realizaba algunos experimentos no científicos con imágenes:
Aquí hay otro ejemplo de lo que he experimentado. No es una prueba científica, ya que es un ejemplo aislado, pero apunta a algunas variables que debemos analizar. Ambos hombres ahora tienen los mismos trajes y les cubrí las manos. Todavía estamos investigando la NN. pic.twitter.com/06BhFgDkyA
– Dantley (@dantley) 20 de septiembre de 2020
Liz Kelley, del equipo de comunicaciones de Twitter, tuiteó el domingo que la compañía había probado el sesgo, pero no había encontrado evidencia de sesgo racial o de género en sus pruebas. "Está claro que tenemos más análisis por hacer", tuiteó Kelley . "Abriremos nuestro trabajo para que otros puedan revisar y replicar".
El director de tecnología de Twitter, Parag Agrawal, tuiteó que el modelo necesitaba una “mejora continua” y agregó que estaba “ansioso por aprender” de los experimentos.
Esta es una pregunta muy importante. Para solucionarlo, hicimos un análisis de nuestro modelo cuando lo enviamos, pero necesita una mejora continua.
Amo esta prueba pública, abierta y rigurosa, y estoy ansioso por aprender de esto. https://t.co/E8Y71qSLXa
– Parag Agrawal (@paraga) 20 de septiembre de 2020