Algoritmos machistas de google ¿Quiénes son los responsables?

Jun 20, 2018

¿Te ha pasado escribir una palabra en el buscador de Google que marca como error ortográfico?, y luego, con la aparente inocencia de ofrecer un servicio nos pregunta, “quiso decir…”. En realidad detrás de esa sugerencia que parece amable hay una respuesta a intereses ideológicos, y sí, también económicos.

En el artículo, “El capitalismo lingüístico y la mediación algorítmica” Frederic Kaplan, catedrático en Humanidades Digitales y director del Digital Humanities Laboratory en la École Polytechnique Fédéral de Lausanne (EPFL), editor en jefe de Frontiers in Digital Humanities y codirector de la colección de libros de Humanidades digitales de EPFL Press; indica que de acuerdo a Alphabet Inc., Google, principal subsidiaria, que desarrolla productos y servicios como el motor de búsqueda de Google, “transforma el material lingüístico sin valor (sin mucha oferta en palabras mal escritas) en un recurso económico y potencialmente rentable.” Demostrando así que la función de autocompletado de Google hace mucho más que asistir.

Hace apenas veinte años que Google se formó, sus fundadores, Sergey Brin y Larry Page tienen tan solo 45 años. Todo lo que han hecho, el mundo que han moldeado, ha sido construido en un abrir y cerrar de ojos. De acuerdo a Alphabet Inc., en 2017 superaron los cien mil millones de dólares. Sin embargo su servicio principal, el buscador, es completamente gratuito. Esto inevitablemente me lleva a preguntar, ¿qué hace Google en realidad? y ¿cómo es que produce tanto dinero?, ¿qué vende? La respuesta es simple, dice Frédéric Kaplan “Palabras. Millones de palabras”.

Anna Jobin, activista y defensora de los derechos y el pensamiento digital, colaboró en el Laboratorio de Humanidades Digitales (DHLAB) por la École Polytechnique Fédérale de Lausana, desarrollando una investigación sobre el “capitalismo lingüístico” y “prótesis lingüísticas”, en la Conferencia anual de Humanidades Digitales en el 2013 confirmó esta hipótesis, ella realizó un estudio en el que determinó que el modelo comercial de gran éxito de Google se basa en la venta de palabras que aparecen en las consultas de búsqueda. Con varios millones de subastas por minuto, la compañía ha creado el primer mercado lingüístico global, un dominio comercial lucrativo en el que Google gana miles de millones de dólares por año.

Entonces, ¿quién o quiénes deciden qué palabras aparecen, antes incluso de que hayamos presionado la tecla Enter…?

Los fundadores de Google, se dieron cuenta que estaban acumulando palabras en forma de capital. Mientras la plataforma crecía en usuarios, el número de búsquedas y expresiones también lo hacían. De acuerdo a Google Zeitgeist, dichas subastas ocurren cada vez que un usuario ingresa una consulta de búsqueda, aproximadamente tres mil millones de veces al día en el 2012. Diríamos incluso que todo lo que se puede nombrar, puede asociarse a una oferta. Al respecto Anna Jobin y Frederic Kaplan, en el artículo “El capitalismo lingüístico y la mediación algorítmica, realizaron un estudio que explica a detalle cómo funciona lo que llamaron el mercado lingüístico.

Algunas palabras y expresiones se han convertido en productos con diferentes valores monetarios que pueden ser comprados. En cierto sentido, Anna Jobin no está equivocada al decir que “Google ha extendido el capitalismo al lenguaje, transformando el capital lingüístico en dinero.” La compañía ha demostrado que el capitalismo lingüístico es un dominio comercialmente lucrativo.

¿no es momento de pensar quién o qué tiene el control sobre las sugerencias de palabras? Es evidente que los algoritmos del autocomplete son configurados por alguien.

Los algoritmos del autocomplete actúan de manera engañosa porque intervienen cuando no hemos terminado siquiera de formular nuestros pensamientos por escrito. Como se imaginarán, Google se respalda en que así funcionan los algoritmos, como si estos no hubieran sido programados por seres humanos trabajando para su propia compañía, y por el contrario, estuvieran fuera de su control.

Pareciera que Google entonces, no asume responsabilidad alguna, como asegura The Spiegel:

“La compañía sostiene que el motor de búsqueda solo muestra lo que existe. No es su culpa, argumenta Google si a alguien no le gustan los resultados calculados.” Entonces ¿quién está a cargo? ¿los algoritmos? ¿los programadores? ¿los usuarios que realizan las búsquedas?

¿También te has dado cuenta de que las sugerencias de Google perpetúan estereotipos machistas? Esto ya sido cuestionado públicamente por entidades internacionales como ONU Mujeres y en México por la activista por los derechos Gisela Pérez de Acha.  

Sí, el buscador de Google también es un reflejo de la sociedad actual, una donde impera la violencia machista, racista y los clichés discriminatorios, que son exteriorizados y difundidos a través de los espacios digitales. Google también está contribuyendo a perpetuar y reforzar los estereotipos al mostrar en los resultados de las búsquedas “más frecuentes” esas narrativas hegemónicas (machistas, LGBTTfobicas, discriminatorias y racistas) como si “naturalmente” fueran las primeras opciones obvias. Pero amigas, nosotras somos feministas, y sabemos que estas cosas nada tienen de naturales, por el contrario, son construcciones sociales que, aunque hayan sido normalizadas, están atravesadas por relaciones de poder que deben de disputarse.

Rebecca MacKinnon, activista por la libertad en Internet y cofundadora de la red de medios ciudadanos Global Voice Online, dice que la mayoría de la gente considera que Internet es como «el aire que respiramos y el agua que bebemos». Nos rodea y no lo cuestionamos. Pero la realidad es que detrás de la pantalla hay programadores, ejecutivos, editores y diseñadores, y todos toman decisiones. Incluso si revisamos las políticas de autocomplete que Google ofrece públicamente en su página, notaremos cierta incoherencia.

Por ejemplo, Google establece cuáles búsquedas son inadecuadas y que por ende deben ser retiradas, e invita incluso a los usuarios a reportarlas. Entre las predicciones están, aquellas que incitan a odiar grupos o personas según raza, sexo, preferencia sexual, etc, por el uso de imágenes o lenguaje denigrante. Sin embargo al escribir palabras como “las mujeres me…”, la primera sugerencia del autocompletado es “las mujeres me dan asco”.

Las predicciones pueden ser reportadas al hacer click en Denunciar predicciones ofensivas.

Bien ahí… pero, ¿por qué este mecanismo no resulta suficiente y las búsquedas machistas y discriminatorias prevalecen?. ¿Cuál es la efectividad de las políticas de autocomplete? ¿Sirve de algo reportar las predicciones para cambiar de manera estructural la forma de programación del algoritmo o solo es una solución reactiva que no se da abasto con el nivel masivo de discriminación que se impregna en las búsquedas de Google?.  

Aunque un algoritmo genera las predicciones de búsqueda automáticamente, es decir, se basa en la popularidad de las búsquedas y la frecuencia con que se realizan, también es cierto que estos son más que un tema tecnológico. De acuerdo a Anna Jobin “implican no solo análisis de datos automatizados, sino también la toma de decisiones”. Dado el poder creciente que los algoritmos ejercen en nuestra sociedad, es vital que “ejerzamos, desarrollemos y enseñemos métodos más formales de responsabilidad algorítmica”. Para esto la ACM (Association for Computing Machinery) en los Estados Unidos, ha propuesto 7 principios clave para la transparencia y la responsabilidad algorítmica. Entre los que destaca la rendición de cuentas: “las instituciones deben ser responsables de las decisiones tomadas por los algoritmos que ellos utilizan, incluso si no es factible explicar a detalle cómo los algoritmos producen sus resultados”.

Automatizar decisiones que afectan personas individuales o grupos requiere de algoritmos claros que puedan ser estudiados objetivamente. Google como plataforma debería de realizar pruebas para evaluar y determinar si el modelo genera daño discriminatorio. Y nosotras como usuarias debemos exigir mejores regulaciones de estos sistemas y sobre todo personas responsables.

*Ilustración principal: Javier Arce (@javier)

Posts relacionados

Meta no nos deja decirle que no ¿Y ahora qué?

Meta no nos deja decirle que no ¿Y ahora qué?

Ixchel Aguirre y Elizabeth Avendaño A principios de junio del 2024, varias personas usuarias expresaron su preocupación por los cambios anunciados en la política de privacidad de Meta respecto al uso de datos personales para educar su Inteligencia Artificial.  En...