Google ha agregado una capa de escrutinio para los trabajos de investigación sobre temas delicados que incluyen género, raza e ideología política. Un alto directivo también pidió a los investigadores que "den un tono positivo" en un artículo de este verano. La noticia fue reportada por primera vez por Reuters .
“Los avances en tecnología y la creciente complejidad de nuestro entorno externo están conduciendo cada vez más a situaciones en las que proyectos aparentemente inofensivos plantean problemas éticos, de reputación, regulatorios o legales”, se lee en la política. Tres empleados dijeron a Reuters que la regla comenzó en junio.
La compañía también ha pedido a los empleados que "se abstengan de proyectar su tecnología en una luz negativa" en múltiples ocasiones, dice Reuters.
A los empleados que trabajan en un documento sobre la IA de recomendación, que se utiliza para personalizar el contenido en plataformas como YouTube, se les dijo que "tengan mucho cuidado de dar un tono positivo", según Reuters. Luego, los autores actualizaron el documento para "eliminar todas las referencias a los productos de Google".
Otro documento sobre el uso de la inteligencia artificial para comprender idiomas extranjeros "suavizó una referencia a cómo el producto Google Translate estaba cometiendo errores", escribió Reuters. El cambio se produjo en respuesta a una solicitud de los revisores.
El proceso de revisión estándar de Google está destinado a garantizar que los investigadores no revelen secretos comerciales sin darse cuenta. Pero la revisión de "temas delicados" va más allá. Los empleados que quieran evaluar los propios servicios de Google en busca de sesgos deben consultar primero con los equipos legal, de relaciones públicas y de políticas. Según los informes, otros temas sensibles incluyen China, la industria petrolera, los datos de ubicación, la religión e Israel.
El proceso de publicación del gigante de las búsquedas ha estado en el centro de atención desde el despido del especialista en ética de IA Timnit Gebru a principios de diciembre . Gebru dice que fue despedida por un correo electrónico que envió al servidor de listas Google Brain Women and Allies, un grupo interno para los empleados de investigación de Google AI. En él, habló sobre los gerentes de Google que la presionaron para que retractara un artículo sobre los peligros de los modelos de procesamiento del lenguaje a gran escala. Jeff Dean, jefe de inteligencia artificial de Google, dijo que lo había enviado demasiado cerca de la fecha límite. Pero el propio equipo de Gebru rechazó esta afirmación , diciendo que la política se aplicó "de manera desigual y discriminatoria".
Gebru se puso en contacto con el equipo de políticas y relaciones públicas de Google en septiembre con respecto al documento, según The Washington Post . Sabía que la empresa podría estar en desacuerdo con ciertos aspectos de la investigación, ya que utiliza grandes modelos de procesamiento de lenguaje en su motor de búsqueda. La fecha límite para realizar cambios en el documento no fue hasta fines de enero de 2024, lo que dio a los investigadores tiempo suficiente para responder a cualquier inquietud.
Sin embargo, una semana antes del Día de Acción de Gracias, Megan Kacholia, vicepresidenta de Google Research, le pidió a Gebru que retractara el artículo. Al mes siguiente, Gebru fue despedido.
Google no respondió de inmediato a una solicitud de comentarios de The Verge .