La semana pasada, el gobierno de EE. UU. Entró en crisis después de un ataque sin precedentes al Capitolio por parte de una mafia pro-Trump, todo como parte de un intento desordenado de revertir las elecciones, incitado por el propio presidente Donald Trump. Ayer, la Cámara de Representantes presentó un artículo de acusación contra Trump por incitación a la insurrección. Este es un punto de inflexión para el experimento estadounidense.
Parte de ese punto de inflexión es el papel de las empresas de plataformas de Internet.
Mi invitada hoy es la profesora Daphne Keller, directora del Programa de Regulación de Plataformas en el Centro de Políticas Cibernéticas de Stanford, y estamos hablando de un gran problema: cómo moderar lo que sucede en Internet.
A raíz del ataque al Capitolio, tanto Twitter como Facebook prohibieron a Trump , al igual que una serie de plataformas más pequeñas. Otras plataformas como Stripe dejaron de procesar donaciones a su sitio web. Reddit prohibió el subreddit de Donald Trump; la lista continúa. Y un competidor más pequeño de Twitter fue efectivamente expulsado de Internet , ya que Apple y Google lo eliminaron de sus tiendas de aplicaciones y Amazon lo sacó de Amazon Web Services.
Todas estas acciones se tomaron en circunstancias extremas: un intento de golpe de un presidente en funciones que dejó seis muertos. Pero todos son parte de un debate más amplio sobre la moderación del contenido en Internet que se ha estado calentando durante más de un año, un debate que es extremadamente complicado y mucho más sofisticado de lo que cualquiera de las personas que grita sobre la libertad de expresión y la Primera Enmienda realmente da. crédito a.
La profesora Keller ha estado en muchos lados del sistema de moderación de contenido: antes de venir a Stanford, fue asesora general asociada en Google, donde fue responsable de las solicitudes de eliminación relacionadas con los resultados de búsqueda. También ha publicado trabajos sobre la interacción desordenada entre la ley y los términos de los acuerdos de servicio cuando se trata de la libre expresión en línea. Tenía muchas ganas de que me ayudara a comprender los marcos en los que se toman las decisiones de moderación de contenido, los límites de estas empresas y los otros modelos que podríamos utilizar.
Dos notas: escuchará al profesor Keller hablar mucho sobre “CDA 230”; esa es una referencia a la Sección 230 , la ley que dice que las plataformas no son responsables de lo que publican sus usuarios. Y preste atención a la rapidez con que la conversación se convierte en competencia: el tamaño y la escala de las grandes empresas de plataformas son partes clave del debate sobre la moderación en formas que me sorprendieron incluso a mí. De acuerdo, Daphne Keller, directora del Programa de Regulación de Plataformas en Stanford.
Aquí vamos.
A continuación se muestra un extracto ligeramente editado de nuestra conversación.
2020 fue un gran punto de inflexión en la conversación sobre la moderación de contenido. Hubo un debate interminable sobre la Sección 230, que es la ley que dice que las plataformas no son responsables de lo que publican sus usuarios. Trump insistió en que se derogara, lo cual es una mala idea por varias razones. Curiosamente para mí, la posición de la plataforma de Joe Biden también es que se deroguen 230, lo cual es único entre los demócratas.
Esa conversación realmente se calentó durante la última semana: Trump provocó un motín en el Capitolio y consiguió que lo expulsaran de Twitter y Facebook, entre otras plataformas. Por ejemplo, Stripe, una plataforma en la que no pensamos en el contexto de Twitter o Facebook, dejó de procesar pagos desde el sitio web de la campaña de Trump.
Después de eso, un competidor de Twitter llamado Parler , que tenía reglas de moderación de contenido muy laxas, se convirtió en el centro de atención. Se eliminó de lastiendas de aplicaciones de Apple yGoogle , y Amazon Web Services desconectó su alojamiento web ; de hecho, el servicio fue cerrado por grandes empresas de tecnología que controlan los puntos de distribución. Son muchos puntos diferentes en la pila tecnológica. Una de las cosas por las que tengo curiosidad es que parece que tuvimos un año de debate 230, y ahora, un montón de otras personas aparecen y dicen: "¿Qué debería ser la moderación de contenido?" Pero en realidad existe un marco y un debate bastante sofisticado en la industria y el mundo académico. ¿Puede ayudarme a comprender cómo son los marcos existentes en el debate?
De hecho, creo que hay una gran brecha entre el debate en DC, el debate a nivel mundial y el debate entre expertos en el mundo académico. DC ha sido un circo, con legisladores inventando cosas y tirando espaguetis a la pared. Hubo más de 20 propuestas legislativas para cambiar CDA 230 el año pasado, y muchas de ellas fueron solo teatro. Por el contrario, a nivel mundial, y especialmente en Europa, se está trabajando en un paquete legislativo enorme, la Ley de Servicios Digitales. Creo que se debe prestar mucha atención a la logística de la moderación de contenido. ¿Cómo moderas tanto discurso a la vez? ¿Cómo se definen las reglas que incluso se pueden imponer a tanto discurso a la vez?
Las propuestas en Europa incluyen cosas como involucrar a los tribunales para decidir qué discurso es ilegal, en lugar de ponerlo en manos de empresas privadas. Tener procesos para que cuando se elimine el discurso de los usuarios, se les notifique y tengan la oportunidad de responder y decir si creen que han sido acusados falsamente. Y luego, si de lo que estamos hablando es del propio poder de las plataformas para derribar cosas, la propuesta europea y algunas de las propuestas estadounidenses, también implican cosas como asegurarse de que las plataformas sean realmente lo más claras posible sobre cuáles son sus reglas. es decirles a los usuarios cómo se han aplicado las reglas y permitirles apelar esas decisiones de eliminación discrecionales. Y simplemente tratando de que los usuarios comprendan lo que están obteniendo, e idealmente para que también haya suficiente competencia para que puedan migrar a otro lugar si no les gustan las reglas que se están imponiendo.
Para mí, la cuestión de la competencia parece estar en el centro de gran parte de la controversia, sin estar nunca a la vanguardia. Durante el fin de semana, Apple , Google , AWS, Okta y Twilio decidieron que no iban a trabajar más con Parler porque no tenía los estándares de moderación de contenido necesarios. Creo que Amazon hizo pública una carta que le enviaron a Parler diciendo: “Hemos identificado 98 casos en los que debería haber moderado esto más duro y está fuera de nuestros términos de servicio. No vamos a permitir que la incitación a la violencia suceda a través de AWS ”. Si todas esas empresas pueden sacar a Parler de Internet de forma eficaz, ¿cómo puede tener una empresa rival a Twitter con un estándar de moderación de contenido diferente? Porque parece que si desea iniciar un servicio que tiene una moderación más laxa, se encontrará con AWS diciendo: "Bueno, aquí está la palabra".
Por ello, si usted va lo suficientemente profundo en la pila técnica de Internet, por debajo de los servicios orientados al consumidor como Facebook o Twitter, a la infraestructura realmente esencial, al igual que su ISP, operador de telefonía móvil o los proveedores de acceso, tenemos reglas neutralidad de la red – o hemos tenido reglas de neutralidad de la red, diciendo que esas empresas tienen que ser transportistas comunes. Tienen que brindar sus servicios a todos. No pueden convertirse en censores discrecionales o elegir qué ideas pueden fluir en Internet.
Obviamente, tenemos un gran debate en este país sobre la neutralidad de la red, incluso en ese estrato inferior. Pero los ejemplos que acaba de enumerar muestran que debemos tener la misma conversación sobre cualquier persona que pueda considerarse una infraestructura esencial. Si Cloudflare, por ejemplo, está protegiendo un servicio de la piratería, y cuando Cloudflare lo arranca del servicio, efectivamente ya no puede estar en Internet. Deberíamos hablar sobre cuáles deberían ser las reglas para Cloudflare. Y en ese caso, su director ejecutivo, Matthew Prince, escribió un gran artículo de opinión en el que decía: “No debería tener este poder. Deberíamos ser una democracia y decidir cómo sucede esto, y no debería ser que los directores ejecutivos de tecnología al azar se conviertan en árbitros de qué discurso puede fluir en Internet ".
Así que estamos hablando de muchos lugares diferentes en la pila, y siempre he sido un defensor de la neutralidad de la red a nivel de ISP, donde es muy difícil para la mayoría de la gente cambiar. Hay muchos juegos de precios y no hay mucha competencia. Tiene mucho sentido que exista neutralidad allí. En el nivel de la plataforma de cara al usuario, la parte superior de la pila, Twitter, no sé si creo que la neutralidad de Twitter tiene sentido. Google es otro gran ejemplo. Existe la idea de que la neutralidad de búsqueda es algo conceptual que puedes presentar a Google. ¿Cuál es el espectro de neutralidad de una tubería? No estoy seguro de si la neutralidad de búsqueda es posible. Suena genial decirlo. Me gusta decirlo ¿Dónde crees que se encuentran las gradaciones de ese espectro?
Para un servicio como Twitter o Facebook, si fueran neutrales, si permitieran que se publicara todo, o incluso todo lo legal que permite la Primera Enmienda, serían pozos negros. Serían pozos de mosh de libertad de expresión. Y como mosh pits del mundo real, hay algunos blancos a quienes les gustaría, y todos los demás huirían. Eso es un problema, tanto porque se volverían mucho menos útiles como sitios para el discurso civil, como también porque los anunciantes se irían, las plataformas dejarían de ganar dinero y la audiencia se iría. Serían efectivamente inútiles si tuvieran que cargar con todo. Creo que la mayoría de la gente, de manera realista, quiere que echen a los nazis. Quieren que eliminen el acoso, la pornografía, el contenido pro-anorexia y solo la marea de basura que de otra manera inundaría Internet.
En los Estados Unidos, son los conservadores los que han planteado esta cuestión, pero a nivel mundial, la gente de todo el espectro político la plantea. La pregunta es: ¿son las grandes plataformas tan guardias de facto en el control del discurso y el acceso a una audiencia que deberían estar sujetos a algún otro tipo de reglas? Lo insinuó antes. Esa es una especie de pregunta de competencia. Existe un nexo entre la competencia y las preguntas del discurso con el que aún no estamos lidiando bien.