domingo, 22 de septiembre de 2019 05:47
Sociedad

La política contra las "fake news" de Facebook plantea más preguntas que respuestas

|

Mark Zuckerberg


Facebook fue una vez la compañía más ágil de su generación. La velocidad a la que se adaptaba a cada desafío era legendaria. Sólo se necesitó alrededor de una década para pasar de su puesta en marcha en un dormitorio a la plataforma de comunicaciones más grande e influyente del mundo.


Pero han pasado dos años desde la campaña presidencial de EEUU en la que la empresa fue el principal vector de desinformación y de interferencia política patrocinada por el Estado, y Facebook todavía parece paralizado sobre cómo responder.


En conversaciones con periodistas y legisladores durante la semana pasada, sus líderes -incluido Mark Zuckerberg, director ejecutivo de Facebook- se han tropezado cómicamente con algunas de las preguntas más básicas a las que se enfrenta el sitio. El Sr. Zuckerberg, en una entrevista con la periodista Kara Swisher publicada el 18 de julio, argumentó que Facebook no prohibiría el negacionismo del Holocausto en el sitio porque "hay cosas que la gente se equivoca". Más tarde explicó que Facebook podía penalizar a los que negaban el Holocausto de muchas otras maneras, pero que la lucidez seguía siendo esquiva.


Los comentarios de Zuckerberg encajan en un patrón más amplio. Presentados con preguntas directas sobre el daño del mundo real causado por la desinformación en su servicio, los ejecutivos de Facebook expresan su dolor, piden paciencia, proclaman su compromiso inquebrantable con la neutralidad política e insisten en que están tan sorprendidos como cualquiera de que incluso están en posición de tener que inventar reglas de discurso para miles de millones de personas.


Testificando ante el Congreso estadounidense esta primavera, Zuckerberg se comprometió a abordar las preocupaciones de los legisladores sobre el sitio. A pesar de que su negocio ha seguido prosperando, en repetidas ocasiones advirtió a los inversores que tomaría medidas para abordar el impacto social de Facebook que podría tener un impacto negativo en sus resultados finales.


Sin embargo, las reflexiones torturadas de los ejecutivos de Facebook en las últimas semanas sugieren que la tarea por delante sigue siendo difícil. La compañía que una vez fue ridiculizada por su descuido -su lema era "muévete rápido, rompe cosas" y colocó carteles alrededor de sus oficinas preguntando a sus empleados "¿Qué harías si no tuvieras miedo?"- ahora se mueve lentamente, arreglando poco y sin tomar ninguna postura.


"Creo que Facebook está tratando de enhebrar esta aguja de tratar de decir que no son una editorial con responsabilidades aquí, cuando claramente lo son", dice Sarah Szalavitz, directora ejecutiva de la agencia de diseño 7 Robot, que ha seguido de cerca los esfuerzos de las empresas de medios sociales para abordar sus deficiencias. "Pero necesitan tener una perspectiva", señala Farhad Manjoo en 'The Independent'.


La polvareda actual comenzó la semana pasada, cuando Oliver Darcy, un reportero de CNN, hizo una pregunta obvia en un evento de prensa que Facebook había convocado para explicar su nuevo plan de lucha contra la desinformación. ¿Por qué permitir que 'Infowars', un sitio que trafica con teorías de conspiración -incluyendo que el tiroteo de la escuela Sandy Hook era falso- mantenga una página en Facebook? dijo Darcy.


En el relato de Darcy, los funcionarios de Facebook parecían sorprendidos por la pregunta. John Hegeman, director de News Feed de Facebook, tropezó con una respuesta sobre cómo "ser falso no viola los estándares de la comunidad" y cómo 'Infowars' era un editor con un "punto de vista diferente".


Más tarde, la red social argumentó que prohibir a las organizaciones que repetidamente venden desinformación sería "contrario a los principios básicos de la libertad de expresión". La empresa insistió en que incluso si 'Infowars' y otros sitios que transmiten información errónea no están prohibidos, podrían ser penalizados. Facebook ha contratado a docenas de organizaciones de comprobación de hechos en todo el mundo; si sus verificadores de hechos determinan que una historia específica de 'Infowars' es falsa, a la gente se le permitiría compartirla con sus amigos, pero Facebook la empujaría tan abajo en los feeds de todos que la mayoría de ellos no la verían.


Parte de la razón por la que Facebook defendió a 'Infowars' pareció hacerse evidente esta semana en el Capitolio. Fue entonces cuando Monika Bickert, vicepresidenta de gestión de políticas globales de Facebook, se presentó en una audiencia del Congreso junto con otros ejecutivos de medios sociales para responder a preguntas sobre si pueden estar sesgados en contra de los conservadores. En la audiencia, Bickert pidió disculpas a Diamond y Silk, dos estrellas de los medios sociales pro-Trump que habían afirmado que Facebook los trataba injustamente.


Zuckerberg, creador de Facebook


Luego vinieron los comentarios de Zuckerberg a Swisher el miércoles sobre el negacionismo del Holocausto y la pregunta sobre lo que Facebook permitiría o no permitiría en su sitio se volvió aún más confusa.


Incluso dejando a un lado la extraña idea de Zuckerberg de que hay negadores del Holocausto de buena fe que simplemente están desinformados sobre el pasado, su argumento planteó varias otras cuestiones, incluyendo la incitación al odio. El código de conducta de Facebook prohíbe la incitación al odio, que define como ataques a las personas basados en "características protegidas" como la raza, la etnia o la religión. ¿No caería el negacionismo del Holocausto en eso?


Una portavoz de Facebook explicó que sería posible, en teoría, negar el Holocausto sin desencadenar la cláusula de incitación al odio de Facebook.


Eso no fue todo. El miércoles, Facebook también puso en marcha una nueva política de desinformación que complicó un poco más las cosas. La compañía dijo que había decidido que, en realidad, eliminaría -y no sólo rebajaría- ciertos puestos falsos si determinaba que podrían conducir a una violencia inminente.


La política es global, pero hasta ahora sólo funciona en Myanmar y Sri Lanka, donde los puestos de Facebook se han vinculado a la limpieza étnica y el genocidio. Y lo que constituye exactamente la violencia inminente es una línea de cambio, dijo la compañía - todavía está "iterando" su política, y las reglas pueden cambiar.


Así que para recapitular: Facebook está profundamente comprometido con la libertad de expresión y permitirá a la gente publicar casi cualquier cosa, incluso negar el Holocausto. A menos que, es decir, si una negación del Holocausto constituye un discurso de odio, en cuyo caso la empresa puede retirarlo. Pero si un mensaje contiene una inexactitud fáctica, no sería eliminado, pero puede ser mostrado a muy pocas personas, reduciendo su impacto.


Por otro lado, si se ha determinado que la desinformación está incitando a la violencia inminente, Facebook la eliminará, incluso si no se trata de un discurso de odio. Por otro lado, si un sitio miente repetidamente, lanza teorías de conspiración o incluso incita a la violencia, puede mantener una presencia en el sitio, porque en última instancia, no hay falsedad que te hará salir de Facebook.


Todo esto falla una prueba básica: No es coherente. Es una mezcolanza de declaraciones y excepciones y excepciones a las excepciones.


"Personalmente, creo que se pueden tener límites directos en torno al contenido odioso que no tiene que ser tan complicado", dijo la Sra. Szalavitz. "La negación del Holocausto es odio. Eso no es difícil."

relacionada Facebook borrará las informaciones falsas que potencien violencia inminente
relacionada ¿Sabes distinguir una noticia falsa de una verdadera?
relacionada Facebook notifica a los usuarios cuyos datos fueron compartidos con Cambridge Analytica

COMENTAR



Pressdigital
redaccion@pressdigital.es
Powered by Bigpress
RESERVADOS TODOS LOS DERECHOS. EDITADO POR ORNA COMUNICACIÓN SL
Mapa Web Aviso-legal Cookies Consejo editorial version mobil