La Violencia Algorítmica: el patriarcado 2.0 en tiempos de COVID-19

Sep 1, 2021

Por: Natalia Rios Rivera

En 2015 habían 2 mil millones de personas en línea y se esperan 6 mil millones en 2022 (esto es 75% de la población mundial de 6 años de edad o más). Este aumento se debe en gran medida a la pandemia, la cual ha acelerado la adopción de tecnologías de información y comunicación (TIC).

La crisis sanitaria no solo normalizó la educación a distancia, el teletrabajo o la prestación de servicios de salud de forma remota, también nos permite hacernos más conscientes de cómo las aplicaciones tecnológicas recopilan, almacenan y procesan nuestra información. La pandemia ha ocasionado una adopción masificada de las tecnologías, lo cual ha fortalecido la vigilancia ciudadana.

El capitalismo de datos

La estructura digital se enmarca a partir del capitalismo de datos, el cual promueve la mercantilización de la vida. Recoger y procesar nuestra información es la nueva lógica moderna y los datos son la actual moneda de cambio. Este nuevo orden internacional reside en la nube y conlleva implicaciones en las políticas públicas y en la democracia. La académica Nobel lo explica como “los algoritmos están proporcionando información perjudicial sobre las personas, están creando y normalizando el aislamiento estructural y sistémico, lo cual refuerza las relaciones sociales y económicas opresivas”.

De manera similar, la académica Louise Amoore en su libro Cloud Ethics explica “lo que importa no es la identificación y regulación de errores algorítmicos, sino más significativamente, cómo los algoritmos están implicados en nuevos regímenes de verificación, nuevas formas de detectar un error o de decir la verdad en el mundo”.

La Violencia Algorítmica Machista

La violencia algorítmica usa los mismos argumentos pre-digitales, es una violencia que sirve para justificar la toma de decisiones desequilibradas. Un ejemplo de este sesgo lo muestra un algoritmo entrenado a partir de Google News, este mostró prejuicios de género al reproducir declaraciones como “hombre es a programador, como mujer es a ama de casa”. Otro ejemplo es Google Translate, que al traducir del español al inglés, interpretó frases refiriéndose a mujeres profesionales como “él”. Además, al traducir del turco al inglés, creó combinaciones machistas como: ella es cocinera, él es ingeniero, él es médico, ella es enfermera, “él es trabajador”, “ella es floja”.

Así, pareciera que la toma de decisiones es “neutra” y “apolítica” al venir de modelos computacionales, sin embargo, no se debe perder de vista que la mayoría de los programadores que desarrollan estas tecnologías son, en su mayoría, hombres blancos que pertenecen al grupo de “Big Tech”. Ellos programan los algoritmos a partir de lógicas coloniales y hegemónicas. Por ello es que en redes sociales, por ejemplo, se nutren y autorizan mensajes de odio sexualizados dirigidos a mujeres y grupos LGBTQ. Igualmente agresivos son los algoritmos que sustentan la inteligencia artificial de Siri de Apple y Alexa de Amazon, al predeterminar la voz de una mujer joven. Esta configuración promueve estereotipos de género ya que el software muestra la voz de una mujer dócil y deseosa de complacer las demandas de los usuarios.

Tomemos en cuenta que por un lado, las tecnologías son ubicuas, por lo que la procedencia de los datos, la geografía, la cultura, el tiempo y el espacio son diversos y por ello los algoritmos impactan numerosos orígenes, recursos e intereses. 

Por el otro, consideremos también que la violencia algorítmica atraviesa fronteras, es decir, se mueve de un contexto a otro. Por ejemplo, pensemos que en un primer momento los datos que alimentan a un algoritmo se obtuvieron desde una red social, esta red después vende los datos a una empresa dedicada al reclutamiento de personal. El algoritmo de la empresa está programado a partir de lógicas discriminatorias así que impidió la empleabilidad de un grupo marginado. En este caso ilustrativo, la violencia algorítmica surge cuando se trasladan los datos de un entorno digital a otro.

Estas problemáticas generan preguntas complejas como:

  • ¿En qué momento del traslado se debería trazar la línea que responsabiliza a un actor o al otro?
  • ¿Quiénes deberían ser los responsables de esta violencia? ¿el CEO de la empresa, quienes programan, la empresa encargada de vender los datos?
  • ¿De qué manera se podría demostrar legalmente que el camino que siguieron los datos generó una violencia?
  • ¿Cuáles deberían ser las instancias legales encargadas, en un entorno en el que los datos cohabitan con leyes nacionales e internacionales?
  • ¿Cómo designar los actores responsables de las violencias algorítmicas en un ambiente digital transnacional?
  • ¿Cómo construir sistemas de gobernanza algorítmica incluyentes?

¿Hay esperanza? 

Sí hay esperanza, pese a que son muchos los actores públicos y privados promoviendo el uso masivo de algoritmos violentos, no todo está perdido. Existen proyectos que buscan repensar las configuraciones desde las que navegamos las tecnologías, son voces mediadoras y críticas que elaboran soluciones tecnológicas a partir de la inclusión de intereses diversos.

No todo está perdido, por eso te compartimos algunas apuestas feministas que ya lo están haciendo diferente:

  • Feminist Data Set, una alternativa que cuestiona los modelos algorítmicos en varios niveles, desde el procesamiento de la Inteligencia Artificial hasta la implementación del bot. 
  • Superrr Lab, es un colectivo de tecnología feminista que desarrolla productos digitales que reflejan las necesidades de las mujeres y de los grupos marginados. 
  • Herd es una red social que busca construir comunidad y eliminar la comparación que caracteriza a las redes sociales más populares. 
  • Q es un asistente de Inteligencia Artificial sin género que trata de eliminar los estereotipos. Lo que propone Q es generar una voz, que a diferencia de Siri de Apple y Alexa de Amazon, no tiene género con lo que elimina la percepción binaria del género.

Otra Internet es posible

Para lograr otra internet se requiere abrir caminos y diseñar sistemas de gobernanza algorítmica incluyentes, que cuiden los derechos humanos de todas las personas que habitamos en Internet. Debemos encontrar vías para asignar consecuencias a los perpetradores de violencias digitales dirigidas a niñas y a mujeres en redes sociales. Las tecnologías requieren de regulaciones legales. 

Es necesario contrarrestar la violencias algorítmicas. Es indispensable lograr que los equipos que desarrollan los algoritmos masificados de las grandes empresas, cuenten con la participación de mujeres, de personas con orígenes e intereses diversos, que promuevan el desarrollo de tecnologías a partir de los valores de sus comunidades. 

Posts relacionados