El director ejecutivo de Facebook Inc., Mark Zuckerberg, como muchos estadounidenses, espera que la noche de las elecciones sea confusa. Le preocupa que también pueda ser violento.

¬ęDesafortunadamente, creo que existe un alto riesgo de disturbios civiles en el per√≠odo entre la votaci√≥n y la convocatoria del resultado¬Ľ, dijo Zuckerberg a Axios el mes pasado. ¬ęCreo que debemos hacer todo lo posible para reducir las posibilidades de violencia o disturbios civiles despu√©s de estas elecciones¬Ľ.

Las empresas de medios sociales se enfrentan a un mayor escrutinio y presi√≥n para hacer m√°s para evitar que sus plataformas se conviertan en vectores de desinformaci√≥n, interferencia electoral y desorden general. En los √ļltimos dos meses, Facebook y la red rival Twitter Inc. han lanzado nuevas pol√≠ticas mientras se preparan para una noche electoral complicada y posiblemente ca√≥tica, en la que los resultados pueden ser oscuros o retrasados. Ambas empresas actualizaron sus reglas esta semana, una se√Īal de que todav√≠a est√°n ajustando sus estrategias menos de un mes antes del d√≠a de las elecciones.

Es probable que cualquier retraso en la declaración oficial de los ganadores la noche del 3 de noviembre cause confusión a los votantes y puede brindar una oportunidad para que las personas, incluidos los propios candidatos, publiquen información incompleta o inexacta en línea. Algunos observadores temen que la falta de respuestas claras o información contradictoria sobre los resultados de las votaciones pueda provocar disturbios o protestas. Otros han advertido sobre una posible intimidación en los lugares de votación o que la información errónea sobre cómo o cuándo votar puede significar que la gente simplemente no vota.

Estas son algunas de las cosas que Facebook y Twitter están haciendo en preparación para la noche de las elecciones:

Facebook

  • Facebook agreg√≥ restricciones a la publicidad pol√≠tica, incluido el bloqueo de nuevos anuncios de campa√Īa desde una semana antes del d√≠a de las elecciones. Esta semana, la compa√Ī√≠a dijo que suspender√≠a por completo los anuncios pol√≠ticos despu√©s del cierre de las urnas, una pol√≠tica que Google tambi√©n anunci√≥. El objetivo de Facebook es evitar que los candidatos promocionen acusaciones enga√Īosas a trav√©s de anuncios en las horas anteriores o posteriores a la votaci√≥n, una posibilidad porque Facebook no verifica los hechos de los anuncios pol√≠ticos.
  • La red social etiquetar√° las publicaciones de los candidatos que reclamen la victoria prematuramente y prohibir√° los anuncios que hagan lo mismo, vinculando a los usuarios a un Centro de Informaci√≥n de Votaci√≥n que incluir√° resultados actualizados compilados por la agencia de noticias Reuters. Tambi√©n agregar√° enlaces a publicaciones cuando un candidato intente socavar los resultados de las elecciones, sugiriendo que son fraudulentos o fraudulentos, por ejemplo. El presidente de Estados Unidos, Donald Trump, a menudo sugiere que los resultados ser√°n manipulados.
  • Facebook colocar√° una alerta en el feed de todos los usuarios de Facebook e Instagram tan pronto como se cierren las encuestas el 3 de noviembre, dirigiendo a las personas al Centro de Informaci√≥n de Votaci√≥n. Si los candidatos reclaman la victoria anticipadamente, el lenguaje de esta alerta masiva especificar√° que el conteo de votos a√ļn est√° en progreso.
  • La empresa dice que adoptar√° una postura m√°s firme sobre la intimidaci√≥n de votos y eliminar√° las publicaciones que alienten a las personas a ¬ęinvolucrarse en ver las urnas cuando esas llamadas utilicen un lenguaje militarizado o sugieran que el objetivo es intimidar, ejercer control o mostrar poder sobre la funcionarios electorales o votantes ‚ÄĚ, seg√ļn un blog de la empresa. Trump y su hijo Donald Trump Jr. alentaron a sus seguidores a observar de manera proactiva los lugares de votaci√≥n.
  • Facebook utilizar√° una ‚Äúsala de guerra‚ÄĚ electoral virtual este a√Īo, un espacio en l√≠nea donde los empleados de diferentes equipos trabajar√°n juntos para detectar y responder r√°pidamente a incidentes electorales. La empresa utiliz√≥ una configuraci√≥n similar durante las evaluaciones de 2018 y tambi√©n la utiliza en otros eventos pol√≠ticos importantes, como debates y convenciones.

Twitter

  • Twitter dice que las publicaciones que distorsionan los resultados de la noche de las elecciones tambi√©n violan sus pol√≠ticas y ser√°n etiquetadas. La empresa asumir√° que los votos a√ļn se est√°n contando hasta que haya proyecci√≥n p√ļblica de al menos dos medios de comunicaci√≥n nacionales.
  • Las publicaciones que ‚Äúsocavan la fe‚ÄĚ en el proceso de votaci√≥n, como sugerir que los resultados son fraudulentos, tambi√©n van en contra de las reglas y ser√°n etiquetadas o eliminadas. Pero el tipo de etiqueta que aplicar√° Twitter, por ejemplo, un enlace a m√°s informaci√≥n frente a una pantalla de advertencia que cubra la publicaci√≥n original, depender√° del usuario y del idioma publicado, dijo un portavoz.
  • Twitter, al igual que Facebook, tiene un centro de informaci√≥n sobre votaciones que se actualizar√° durante la noche de las elecciones con tweets de las principales organizaciones de noticias.
  • El viernes se revelaron algunos cambios en el producto para disuadir a los usuarios de compartir informaci√≥n incorrecta de manera m√°s amplia. Twitter mostrar√° a los usuarios enlaces a m√°s informaci√≥n cuando intenten retuitear una publicaci√≥n que haya sido marcada como falsa. La compa√Ī√≠a tambi√©n pedir√° a los usuarios que agreguen sus propios comentarios a los retweets en lugar de simplemente compartirlos directamente, un esfuerzo por lograr que las personas proporcionen m√°s contexto para las cosas que comparten.
  • Una funci√≥n llamada Birdwatch, que la compa√Ī√≠a est√° considerando como una herramienta para permitir que los usuarios ayuden a verificar el servicio, no estar√° lista ni ser√° utilizada para la elecci√≥n, seg√ļn una persona familiarizada con los planes de la compa√Ī√≠a. Twitter tambi√©n est√° considerando etiquetas m√°s visibles para publicaciones verificadas, aunque no est√° claro si se utilizar√°n antes del d√≠a de las elecciones.

En muchos casos, la informaci√≥n enga√Īosa publicada en ambos servicios se etiquetar√°, pero no se eliminar√°, lo que llevar√° a algunos observadores electorales a cuestionar la eficacia de esta estrategia. ¬ęEs tan problem√°tico¬Ľ dejar publicaciones enga√Īosas, incluso si tienen una etiqueta, dijo Michael Serazio, como profesor asociado de comunicaci√≥n en Boston College. ¬ęEn 2020, existe un temor y una ansiedad reales sobre lo que circular√° en las redes sociales en ausencia de un ganador declarado¬Ľ.

Las etiquetas con enlaces a información adicional imponen a los usuarios de Facebook la carga de verificar los hechos, ya que las etiquetas en sí mismas no necesariamente dicen que una publicación sea incorrecta, dijo Gautam Hans, profesor de derecho en la Primera Enmienda en la Facultad de Derecho de Vanderbilt.

¬ęEs m√°s informaci√≥n para que la gente la analice¬Ľ, dijo Hans, ¬ęy la gente es notoriamente mala en eso¬Ľ.

YouTube, propiedad de Google, est√° lidiando con problemas similares. La plataforma de videos atrae a millones de espectadores a sus videos pol√≠ticos y de noticias, que han aumentado el tr√°fico desde el inicio de la pandemia. La compa√Ī√≠a ha tomado varias medidas para eliminar la desinformaci√≥n pol√≠tica en su sitio web. El propio Google planea poner fin a los anuncios pol√≠ticos en sus propiedades tan pronto como finalicen las b√ļsquedas el 3 de noviembre. YouTube tambi√©n proh√≠be la filmaci√≥n y los videos manipulados que inciten a la violencia, enga√Īen a las personas sobre el voto o ¬ęinterfieran con los procesos democr√°ticos¬Ľ.

Sin embargo, la empresa se neg√≥ a decir c√≥mo tratar√≠a los videos de un candidato u otros que declararon un resultado que no correspond√≠a a los conteos oficiales. ¬ęPermanecemos atentos y trabajando para tener las protecciones adecuadas antes, el d√≠a y despu√©s de las elecciones, en todo el mundo¬Ľ, dijo Ivy Choi, portavoz de YouTube.

Un desaf√≠o para todos los servicios en l√≠nea ser√° la velocidad. Incluso si estas empresas etiquetan publicaciones de violadores pol√≠ticos, estos mensajes pueden alcanzar un alcance masivo en minutos. Despu√©s de que Trump tuite√≥ a principios de esta semana sugiriendo que Covid-19 no era peor que la gripe, Twitter ocult√≥ la publicaci√≥n detr√°s de una etiqueta de advertencia, pero no antes de recibir m√°s de 180.000 me gusta y m√°s de 43.000 retweets. Algunas de las etiquetas de Twitter, como la que se aplic√≥ al tweet Covid de Trump, impiden que los usuarios den me gusta o compartan otro tweet. Pero para cuando las empresas tomen medidas para evitar la difusi√≥n de informaci√≥n incorrecta, es posible que gran parte del da√Īo ya est√© hecho.

Algunos legisladores han expresado su preocupaci√≥n de que las pol√≠ticas publicitarias de Facebook y Google sean miopes. ¬ęEl hecho de que los anuncios pol√≠ticos est√©n bloqueados en Facebook y Google despu√©s del cierre de los colegios electorales el d√≠a de las elecciones hace poco para evitar que los malos actores promuevan org√°nicamente desinformaci√≥n peligrosa¬Ľ, escribi√≥ la representante estadounidense Cheri Bustos de Illinois, presidenta de la Comit√© de Campa√Īa del Congreso Dem√≥crata, y la senadora Catherine Cortez Masto de Nevada, presidenta del Comit√© de Campa√Īa del Senado Dem√≥crata, en un comunicado. Los dos legisladores continuaron cuestionando si las empresas de tecnolog√≠a estaban preparadas para ¬ęposibles escenarios de vuelo o anuncios urgentes como protocolo de recuentos¬Ľ.