Un artículo escrito en coautoría por el ex especialista en ética de la IA de Google, Timnit Gebru, planteó algunas preguntas potencialmente espinosas para Google sobre si los modelos de lenguaje de IA pueden ser demasiado grandes y si las empresas de tecnología están haciendo lo suficiente para reducir los riesgos potenciales, según MIT Technology Review. El documento también cuestionó los costos ambientales y los sesgos inherentes en los modelos de lenguaje grandes.
El equipo de inteligencia artificial de Google creó un modelo de lenguaje de este tipo, BERT, en 2018 , y tuvo tanto éxito que la empresa incorporó BERT a su motor de búsqueda . La búsqueda es un segmento muy lucrativo del negocio de Google; solo en el tercer trimestre de este año, generó ingresos de $ 26,3 mil millones. "Este año, incluido este trimestre, mostró lo valioso que ha sido el producto fundador de Google, la búsqueda, para las personas", dijo el director ejecutivo Sundar Pichai en una llamada con inversores en octubre.
Gebru y su equipo presentaron su artículo titulado "Sobre los peligros de los loros estocásticos: ¿Pueden los modelos lingüísticos ser demasiado grandes?" para una conferencia de investigación. Ella dijo en una serie de tweets el miércoles que luego de una revisión interna, se le pidió que retirara el documento o eliminara los nombres de los empleados de Google. Ella dice que le pidió a Google condiciones para quitar su nombre del periódico, y si no podían cumplir con las condiciones, podrían "trabajar en una última cita". Gebru dice que luego recibió un correo electrónico de Google informándole que estaban "aceptando su renuncia con efecto inmediato".
El jefe de IA de Google, Jeff Dean, escribió en un correo electrónico a los empleados que el periódico "no cumplía con nuestro estándar de publicación". Escribió que una de las condiciones de Gebru para continuar trabajando en Google era que la compañía le dijera quién había revisado el documento y sus comentarios específicos, lo que se negó a hacer. “Timnit escribió que si no cumplíamos con estas demandas, dejaría Google y trabajaría en una fecha de finalización. Aceptamos y respetamos su decisión de renunciar a Google ”, escribió Dean.
Gebru es conocida por su trabajo sobre el sesgo algorítmico, especialmente en la tecnología de reconocimiento facial.
En su carta, Dean escribió que el artículo "ignoró demasiadas investigaciones relevantes", una afirmación que la coautora del artículo Emily M. Bender, profesora de lingüística computacional en la Universidad de Washington, cuestionó. Bender le dijo a MIT Technology Review que el artículo, que tenía seis colaboradores, era “el tipo de trabajo que ningún autor individual o incluso un par de autores pueden realizar”, y señaló que tenía una lista de citas de 128 referencias.
Gebru es conocida por su trabajo sobre el sesgo algorítmico, especialmente en la tecnología de reconocimiento facial. En 2018, fue coautora de un artículo con Joy Buolamwini que mostró que las tasas de error para identificar a las personas de piel más oscura eran mucho más altas que las tasas de error para identificar a las personas de piel más clara, ya que los conjuntos de datos utilizados para entrenar algoritmos eran abrumadoramente blancos.
Gebru le dijo a Wired en una entrevista publicada el jueves que sentía que la estaban censurando. “No vas a tener papeles que hagan feliz a la empresa todo el tiempo y no señalen problemas”, dijo. "Eso es contrario a lo que significa ser ese tipo de investigador".
Desde que se hizo pública la noticia de su despido, miles de simpatizantes, incluidos más de 1.500 empleados de Google, firmaron una carta de protesta. "Nosotros, los abajo firmantes, nos solidarizamos con la Dra. Timnit Gebru, quien fue despedida de su cargo como investigadora científica y codirectora del equipo de Inteligencia Artificial Ética (IA) en Google, luego de una censura de investigación sin precedentes", se lee en la petición. titulado De pie con el Dr. Timnit Gebru .
"Pedimos a Google Research que fortalezca su compromiso con la integridad de la investigación y que se comprometa inequívocamente a apoyar la investigación que respete los compromisos asumidos en los Principios de inteligencia artificial de Google".
Los peticionarios exigen que Dean y otros "que participaron en la decisión de censurar el artículo del Dr. Gebru se reúnan con el equipo de Ethical AI para explicar el proceso mediante el cual el liderazgo rechazó unilateralmente el artículo".
Google no respondió de inmediato a una solicitud de comentarios el sábado.