@macarenacdl

El pasado viernes, Ariana Harwicz, escritora argentina radicada en Francia, publicó en un tweet un mail que le llegó de la red social Twitter luego de que la plataforma le bloqueara el acceso a su cuenta por “incitar al suicidio”.

Ayer mi cuenta fue bloqueada por ‘promover el suicidio’ + ‘incitar a la automutilación’ al escribir el título de mi novela, contó en referencia a su célebre obra “Matate, amor”. Además, denunció que una colega que se solidarizó sufrió las mismas consecuencias e ironizó ¿Alguien tiene la lista de palabras permitidas?

El bloqueo a Harwicz no es un caso aislado sino que es otro dentro de una larga lista de expresiones válidas, amparadas por las garantías a la libertad de expresión, censuradas en redes sociales. En 2016, por ejemplo, el periodista mapuche Umawtufe Wenxu denunció que Facebook le había cerrado su cuenta personal por considerar que no usaba un “nombre real”, como exigen los términos y condiciones de la plataforma.

¿Por qué Twitter y Facebook censuran estos contenidos si están amparados por el derecho a la libertad de expresión?

Las redes sociales son espacios privados donde sucede el debate público y estos espacios tienen ciertas reglas de uso”, dice Javier Pallero, director de política pública en Access Now, una organización internacional dedicada a los derechos humanos y a promover una Internet libre y abierta. Pallero explica que plataformas como Twitter y Facebook funcionan como curadoras de contenidos con una línea editorial propia: “Esto quiere decir que hay mucho contenido que es legal y que, por lo tanto, está protegido por la libertad de expresión, que Facebook decide que no va a permitir en su espacio privado”. Es el caso, por ejemplo, de los desnudos o cierto contenido violento.

Estas plataformas privadas, cuenta, trabajan con esta línea editorial de forma autorregulada, como hacen los medios de comunicación tradicionales. Pero a diferencia de los medios, que se ven sujetos a control posterior por parte de entidades que garantizan, entre otras cosas, que haya diversidad o que no haya discriminación, “en Internet no existe eso todavía”. Internet no cuenta con estos organismos de control, afirma, porque en su origen se planteó la existencia de múltiples plataformas, cada una con sus reglas, donde se pueda desarrollar el debate público.

Un escenario muy distinto al actual, donde predomina la concentración: “Sucede que hay concentración en el espacio de las redes sociales, cuasi oligopolios, hay un puñadito de empresas que manejan todo lo que es interacción directa con los usuarios en redes sociales (Facebook y Twitter, sin ir más lejos) que por su dominancia, a pesar de ser espacios privados tienen un impacto en el debate público. Y ese impacto en el debate público amerita cierto tipo de regulación”, sostiene Pallero.

Con regulación no se refiere a que se deba ejercer control directamente sobre el contenido (es decir, qué se puede decir y qué no), sino a “poner ciertas condiciones para que esta autorregulación tenga límites, que sea una autorregulación regulada”. Pone como ejemplo ciertos debates que se están desarrollando en Europa, donde se discute “cómo hacer que esto sea más transparente, que las decisiones se justifiquen, que sean claras y predecibles, que exista el derecho a la apelación” frente a casos de censura injustificada como el de Harwicz.

Para asegurar estas garantías a la libertad de expresión de los usuarios, Pallero propone ciertos requisitos básicos a considerar: “Los criterios que hay que tener en cuenta”, sostiene, “son la transparencia, la rendición de cuentas, la auditoría de algoritmos para asegurarse de que no sean discriminatorios, antojadizos o arbitrarios, que haya predicibilidad, apelación. Requisitos mínimos para hacer que todo esto sea menos impredecible, arbitrario e injusto”.