La difusión del intercambio no consensuado de imágenes íntimas (NCII) continúa siendo una batalla para los sobrevivientes y las empresas de tecnología durante años, con estas últimas recibiendo presión para implementar herramientas que prevengan mejor la difusión de dichas imágenes.

Con este fin, Meta, anteriormente conocida como Facebook, anunció su asociación con StopNCII.org, una iniciativa de la Línea de Ayuda de "Revenge Porn" del Reino Unido para evitar la propagación de imágenes íntimas no consensuadas en su plataforma.

La herramienta se lanzó el jueves, y permite a las personas que están preocupadas de que sus fotos o videos íntimos hayan sido o puedan ser compartidos en línea, por ejemplo, por ex parejas vengativas, enviar las imágenes a un sitio web central y global llamado StopNCII.org, que luego se encargará de eliminar las imágenes de las redes sociales asociadas con el proyecto.

"Es un gran paso adelante", dijo Sophie Mortimer, gerente de la línea de ayuda británica. "Para mí, la clave es poner este control sobre el contenido de nuevo en manos de las personas directamente afectadas por este problema para que no se queden a merced de los caprichos de un perpetrador que amenaza con compartirlo".

Cómo funciona StopNCII, la herramienta de Meta contra los desnudos no consensuados

En casos de "porno de venganza", imágenes íntimas de la víctima son compartidas sin su consentimiento en redes sociales.

Cuando a alguien le preocupa que sus imágenes o videos íntimos se hayan publicado o puedan publicarse en cualquiera de las plataformas de redes sociales, puede crear un caso a través de StopNCII.org. Para presentar un caso, los usuarios presionan la opción "Seleccionar fotos / videos" en el sitio web. Esto abrirá la galería de fotos del dispositivo y permitirá a los usuarios seleccionar archivos que podrían usarse como posible pornografía de venganza

A diferencia del primer intento de Facebook en crear una herramienta similar, el proceso de eliminación no estará a cargo de personas. Para evitar que moderadores humanos tengan acceso a las imágenes sensibles, el programa convierte los archivos en huellas digitales únicas conocidas como "hashes". Las empresas de tecnología, como Meta, que participan en la iniciativa  solo recibirán el hash y podrán utilizarlo para examinar e identificar si dicha imagen se compartió en sus servidores.

Meta lanzó la herramienta en sus servidores este jueves.

StopNCII.org, que fue desarrollado en consulta con 50 socios globales especializados en abuso de imágenes, seguridad en línea y derechos de las mujeres, no tendrá acceso ni almacenará copias de las imágenes originales. En su lugar, se convertirán en hash en los navegadores de los usuarios y StopNCII.org solo obtendrá las copias hash.

"El intercambio no consensuado de imágenes íntimas, a veces denominado, lamentablemente, 'porno de venganza', puede tener un impacto devastador en la vida de una persona. No permitimos este contenido en nuestras aplicaciones, y hoy nos basamos en nuestros desarrollos líderes en la industria para combatir la propagación de NCII en nuestras plataformas y fuera de ellas", reza el comunicado de Meta donde anunció la nueva herramienta.