Suplantación y robo de identidad: entre el tecnosolucionismo, el algoritmo selectivo y la censura.

Sep 27, 2022

Por: Ixchel García

¿Comunidad? ¿A quiénes protegen las “normas comunitarias”?

El contexto actual nos deja cosas claras: las plataformas de redes sociales dominantes ven el contenido sexual como una fuente de datos, ganancias y vigilancia, y al mismo tiempo ven su eliminación como un medio para el capital político al cumplir con las populares agendas prohibicionistas y abolicionistas promovidas por grupos de derecha y gobiernos. Cuando las plataformas se enfocan en la “pornografía”, utilizan cierto contenido como chivo expiatorio independientemente de su claridad, contexto, interpretación o agencia de la persona usuaria, y le asignan deliberadamente una categoría peyorativa. El término ‘pornografía’ es una construcción regulatoria tan amplia, dispar y definida de manera tan inconsistente, que resulta un criterio deficiente para la moderación de contenido, y por eso la tenemos que cuestionar. 

Ilustración de  Xiao Mei

“Pasó un mes y la cuenta (perfil falso) no la borraban. Fue hasta que me di cuenta que tenía que reportar por explotación y servicios sexuales y pedí a mis conocides que lo hicieran también. Solo así funcionó”.  

– Daniela, mujer cis 29 años

“Termina siendo ilógico que como alguien que crea contenido erótico y sabe la importancia de hablar de sexaulidad y erotismo en redes, tenga que denunciar un perfil falso por explotación sexual, siento que es como sumar a que estas normas comunitarias funcionen cuando en realidad son violentas”  

– Van, pansexual 26 años

Las redes sociales están reconfigurando discursos, ideas e incluso el cómo habitamos nuestras corporalidades, y uno de los debates al respecto, es el supuesto daño de “la pornografía”, los discursos mal encaminados sobre la protección de las infancias y una mala interpretación sobre lo que es la trata. Estos debates han llevado a crecer una estricta política de regulación de contenidos y otras acciones en nombre de tomar medidas enérgicas contra el llamado “contenido sexual dañino”, lo cual no ha resultado más que en la prohibición, bloqueo, censura y eliminación de todo contenido que vaya en contra de los “términos de uso”.  

Nos encontramos frente a barreras frustrantes impulsadas por discursos moralistas e higienistas contra la sexualidad, identidades y corporalidades que “asustan” a los algoritmos. Para les educadores sexuales, creadores de contenido, artistas y comunidades disidentes, es evidente que las normas comunitarias son selectivas y que las opresiones nos han seguido al espacio digital.

“Para mí las redes sociales nos han ayudado a mentenernos conectades e incluso a crear redes de apoyo entre quienes estamos en temas eróticos, de trabajo sexual, de educacción sexual. Generar una red segura, compartir contenido erótico, de educación sexual y kink entre morras y disidencias, tiene una potencia enorme. Las redes sociales son una gran herramienta y es lamentable que seamos tan poco apoyades por estas plataformas”. -Rebeca, 25 años, persona no binarie

Las tendencias actuales en la regulación, especialmente la legislación que incentiva a las plataformas a eliminar todo el contenido sexual, crean un entorno hostil para quienes el sexo significa una parte activa y visible de la vida. Las plataformas han cerrado de forma preventiva espacios que han sido refugios para grupos diversos, como trabajadores sexuales, personas racializadas, comunidades disidentes, corporalidades no hegemónicas o personas educadoras sexuales. En el texto Trabajo sexual en línea, contenidos eróticos y regulaciones hablamos sobre el colonialismo digital y los efectos de legislaciones planteadas desde perspectivas reduccionistas que refuerzan la estigmatización.

Vía Giphy

Hay mucha hipocresía por parte de las plataformas. Los procesos para denunciar agresiones como la suplantación de identidad, son largos, tardados y no son amigables. Cuando te crean un perfil falso y lo comparas con tu perfil real, me parece sorprendente que un supuesto algoritmo que se plantea con cierto enfoque, no logre distinguir que se trata de un perfil falso. También me pregunto por qué si eliminan tantas cuentas y publicaciones “sexuales”, los perfiles falsos se mantienen. No me hace sentido cómo funciona. – Van, mujer pansexual, 26 años.

Las plataformas pretenden asumir su responsabilidad contra las agresiones que experimentamos en línea vertiendo sus esfuerzos en políticas comunitarias más estrictas y soluciones técnicas con falta de empatía y sin análisis de contexto. Sin embargo estos esfuerzos se quedan cortos, pues resulta inúltil una regulación de contenido basada en narrativas moralistas y hegemónicas y no en soluciones reales que aboguen por la libertad de expresión y la creación de espacios seguros para todes. 

Moderación humana vs tecnosolucionismo

La moderación de contenido es un tema difícil. Hay muchos contenidos que los algoritmos no pueden categorizar pues los matices culturales no son tan predecibles, ni tampoco consideran los factores sociales, económicos, políticos, técnicos/algorítmicos, de género y raciales que los atraviesan. Pero ¿quién o qué determina las políticas de moderación en cada plataforma? Es importante nombrar a las plataformas más populares como Instagram, Facebook, Tiktok, Twitter, como lo que son: corporaciones privadas, económica y políticamente influyentes, que implementan sus propios protocolos de administración de contenido. 

De acuerdo a la investigación Algoritmo misógino en la práctica de moderación de contenido de Brandeis Marshall, las plataformas de redes sociales operan como empresas de contenido responsable y deben ser tratadas como tal. Esto significa que realizan prácticas de moderación de contenido automatizadas y manuales que van más allá de los derechos de autor o las infracciones de delitos federales, ya que se rigen bajo sus propias políticas.

Pero ¿cómo funciona esta moderación de contenido? El contenido generado por la persona usuaria, ingresa a la plataforma donde se ejecutan una serie de algoritmos de aprendizaje automático para evaluar y verificar el contenido. Si el contenido no plantea ningún problema de gobernanza de la plataforma, este se publica. Si el contenido viola las pautas de la plataforma, se etiqueta como contenido confidencial y no se publica o se elimina. Si el contenido se considera potencialmente problemático, se reenvía a las personas moderadoras de contenido para que lo revisen manualmente y decidan si se puede publicar o no. 

Vía Giphy

Algo que me atravesó mucho fue el pensar que estas redes sociales donde casi casi ventilamos nuestras vidas, nos tienen tan desprotegidos, y que justo al ver solamente la diferencia entre esta cuenta falsa y mi cuenta personal, se puede ver cuál es la real y ni así obtuve respuesta de Instagram. Para mí es parte del día a día, por eso me sentí tan vulnerada, que una herramienta tan cotidiana me estuviera jugando en contra.

– Andrea Barreto, 28 años, mujer cis

Las plataformas han propuesto y “afinado” el filtrado de contenido por palabras claves y la distinción de imágenes con contenido sexual explícito, sin embargo, no logran distinguir entre los diferentes tipos de contenido sexual y mucho menos los que están atravesados por el consentimiento. Justo en esta disyuntiva es en donde ocurre el gran conflicto, pues estas prácticas censuran y refuerzan las desigualdades sexuales y de género. Por eso tenemos que cuestionar las esperanzas que se ponen sobre el tecnosolucionismo que no atiende a las complejidades de la condición humana.

Es ilógico que tarden tanto en tumbar perfiles que evidentemente son falsos. Cuando compañeras con cuerpas gordas y no hegemónicas suben su contenido erótico, a cada rato les bajan sus publicaciones y cuentas. Es contraproducente. Cuando reportas algo que sí es peligroso, no dan respuesta, y a la par nos bajan el contenido por un pezón, por vello, por lo que compartimos desde el consentimiento. 

-Marlen, 28 años, mujer cis bisexual

 

Las redes sociales más populares como Instagram, Facebook y Tiktok, refuerzan los valores doble moralinos a nivel mundial y hacen que las propias normas nos jueguen en contra. Como sociedad es importante que hablemos de la gobernanza de las plataformas, el capitalismo de vigilancia y la gentrificación en línea. Se presta poca atención a las agendas conservadoras ocultas y no tan ocultas de los gobiernos, inversionistas y corporaciones, así como a las condiciones específicas en las que se utilizarán estas tecnologías.

Sin embargo, aunque el panorama parece desesperanzador, tenemos claro que podemos demandar y exigir espacios seguros, libres y no discriminatorios, podemos imaginar y crear espacios donde las plataformas basen sus políticas en los principios de derechos humanos, los derechos sexuales, la ciudadanía sexual digital y el pensamiento sexual libre y no moralista. 

Posts relacionados