Una experta en el asunto

Periodista, socióloga y realizadora audiovisual, Lucía Benítez Eyzaguirre ha dedicado su vida a desentrañar los códigos de la comunicación, las dinámicas del poder, la tecnología y la sociedad y siempre con esa aguda y necesaria perspectiva de género. Doctora en Comunicación por la Universidad de Sevilla, licenciada en Ciencias Políticas y Sociología, Máster en Tecnología Digital y Sociedad del Conocimiento, así como en Inmigración, además de ser experta en Realización Audiovisual y Software Libre, no ha dejado nunca de visitar países para dar voz a aquellas que están silenciadas y de promover con sus investigaciones el empoderamiento digital de las mujeres.  

Pregunta. ¿Qué es eso del sexismo digital? 

Respuesta. El sexismo digital es precisamente la forma en que la tecnología nos trata de manera diferente a hombres y a mujeres, porque no está pensada para nosotras, sino para hombres. La tecnología se ha diseñado pues para entretener, pero no para solucionar problemas; para cuestiones muy relacionadas con el ego, el narcisismo, la visibilidad y, en cambio, no para cuestiones relacionadas con la vida. Y ahí vemos cómo, por ejemplo, llevamos muchos años ya de digitalización y hay muy pocas aplicaciones para los cuidados, por ejemplo, o para temas familiares. Y en cambio, hay aplicaciones para casi todo lo relacionado con la imagen.

Lucía Benitez sexismo digital (9)

La autora, para la entrevista.  REYNA

Es un concepto con el que, de alguna forma, queremos poner de manifiesto cómo la diferenciación de género está escrita en el mismo código, es decir, con el mismo código con el que se realiza el software. Ya ahí, hay marcas diferenciales muy importantes que se mantienen durante todo el desarrollo y que ha sido un campo fundamentalmente ocupado por hombres que han desarrollado los programas según sus propios intereses. Como todos sabemos, los códigos, desde los legales, los biológicos, los binarios y de cualquier tipo, lo marcan todo. Y si lo marcan todo, están diseñando un mundo que está pensado por hombres en el que relegan a las mujeres sistemáticamente.

Podíamos tener otra tecnología, podíamos tener otras ambiciones. Cuando ocurrió la pandemia, nos dimos cuenta de que teníamos mucha tecnología, pero realmente nos sirvió para hablar, para tener videoconferencias y poco más, pero no nos sirvió ni para no perder a personas en las residencias, ni para ni para luchar contra la muerte o contra la enfermedad.

P. Pero entonces, ¿tampoco hay igualdad entre hombres y mujeres en el mundo digital?

R. No, no existe ni siquiera la conciencia de que la tecnología nos trata de forma desigual. No existe la idea de que un algoritmo puede hacer que una mujer tenga menos oportunidades para encontrar un puesto de trabajo, o que vas a tener menos oportunidades o te va a dar menos crédito en un banco a porque eres mujer, porque tradicionalmente lo que ha ocurrido siempre es que las mujeres hemos recibido las peores cantidades de financiación.

«Prueba un traductor y verás que te traduce en hombre, no te traduce nunca en mujer»

De hecho, se calcula que mundialmente las mujeres hemos recibido el 0,5% de la financiación mundial. Entonces, los algoritmos eso lo recuerdan, de forma que si yo ahora la preguntara al algoritmo quién va a presidir el Gobierno de España dentro de 3 años, no me diría  que una mujer, porque nunca la ha habido. No pensemos que los algoritmos y que la inteligencia artificial, son tan listos. Lo que están haciendo es decir lo que ha ocurrido hasta ahora, esto es, lo más probable. Es verdad que no es la única forma de programar un algoritmo, un algoritmo es una cuestión más compleja, pero hay montones de cosas que ya están predeterminadas y están predeterminadas en el sentido en que hemos vivido toda la vida. De hecho, si no, prueba un traductor y verás que te traduce en hombre, no te traduce nunca en mujer, porque es lo más general. Cuando tú buscas soluciones, cuando tú inicias una búsqueda de cualquier tema, te das cuenta de que lo que te aparece es lo más general. Pues eso es lo que va a hacer, no va a hacer nada distinto.

P. Traduce, ofrece soluciones generales, o sea, masculinas, pero luego los asistentes virtuales son mujeres, ¿no? Dedica usted un capítulo del libro precisamente a la cosificación y al sexismo digital en los asistentes virtuales. ¿Por qué?

R. Bueno, ya hace 6 años la ONU hizo un informe sobre los asistentes virtuales acusándolos de machismo sistemático y de reproducir todo tipo de conductas relacionadas con la violencia [ ‘I’d blush if I could/ ‘Me sonrojaría si pudiera, “titulado así por la respuesta que ofrecía Siri a insultos como > o >”] y luego hicimos un estudio en la Universidad de Cádiz (UCA), con una alumna, que se llama Lucía Acosta, sobre Siri: sobre cómo una aplicación trataba a los hombres y a las mujeres. Entonces, ella hizo una serie de preguntas sobre cómo lo usaban hombres y las mujeres y qué respuesta les devolvía. Y salieron temas muy interesantes. Salió, por ejemplo, que los hombres le piden mucha consulta a Siri sobre temas domésticos y que las mujeres prescindimos más de lo de lo que diga un asistente virtual y somos más autónomas. 

Lucía Benitez sexismo digital (4)

Lucía Benítez, con un ejemplar de su libro.  REYNA

Para mí lo más significativo es que es un dispositivo que no está hecho pensado con perspectiva de género; por ejemplo, no es útil para una mujer en un caso de violencia, porque no va a gritar o no va a decir nada en voz alta. Así, los asistentes virtuales, en general, no reconocen las denuncias por violencia de género o no reconocen el concepto violencia de género, pero, en cambio saben, perfectamente qué le pasa a tu coche, cuál es el taller más próximo y te dan el número de teléfono, pero no el de un centro de atención a víctimas de violencia. Son diferencias muy importantes que pasan desapercibidas porque nunca se ha hecho esa tecnología para las mujeres, lo mismo que pasa en los videojuegos.

P. De hecho, otro de los capítulos de este libro de mujeres expertas se centra en ese mundo. También en la maternidad o en la inteligencia artificial. ¿Qué pasa en esos campos?

R. Sí, en un principio me planteé hacer este libro en solitario, pero me parecía mucho más rico contar con gente de campos que pudiera participar en el proceso. Por ejemplo, yo no hubiera entrado al tema del videojuego como lo han hecho mis compañeras Guadalupe Meléndez González Haba y Paloma Sanz Marcos, o en el de la maternidad porque no soy madre, como sí ha hecho Salomé Sola Morales, que tiene un capítulo muy interesante sobre las aplicaciones que siguen la actividad de las mujeres y las madres. Aplicaciones que, por ejemplo, saben cuándo las mujeres tienen la regla y cuándo no, lo cual es un problema si no preservamos los datos. 

Precisamente, en materia de datos contamos con Marta Regí Cano, que es una analista de datos de primer nivel, que hace una reflexión sobre algo que no nos paramos a pensar y es que, si no desagregamos los datos, estamos volviendo otra vez al estándar masculino. Si no nos damos cuenta de que tenemos que diferenciar los datos de los hombres y las mujeres en toda la investigación, volvemos a tener el mismo problema. Y ese problema lo hemos visto, por ejemplo, en la Ley de Transparencia española que no tiene perspectiva de género, pero, como los datos estaban desagregados, se ha podido constatar la brecha de salarial, la brecha económica, de las pensiones, en las condiciones laborales. En el momento en el que empezamos a hacer las cosas así, es cuando empezamos a ver las cosas de otra manera que no se veían.  

«Mucha gente habla de los algoritmos como el que hablara de ciencia exacta, sin saber que un algoritmo es producto de una persona humana»

 Y el último capítulo, que es de Rut Delgado Bancalero, trata sobre el impacto y desafíos del uso de los algoritmos, el almacenamiento y la recuperación de datos. Parte de cómo Infojobs, que no es el único, da diferentes respuestas cuando se le entregan currículums con nombre de hombre y con nombre de mujer. Con el mismo currículum, a ellos les suele recomendar para un puesto de dirección y a ellas, de asistentes de dirección, de secretarias. Alrededor de eso, empieza a analizar todos los problemas que hay con los sesgos de los algoritmos y las decisiones automatizadas. En la propia Administración hay muchos procedimientos automatizados que, curiosamente, perjudican a las minorías, perjudican a las mujeres y se da el caso de la repartición de beneficios sociales y con esas decisiones automatizadas, se está perjudicando a las minorías, cuando esos beneficios son, precisamente, para esos colectivos. Y lo peor es que nadie lo sabe.

Mucha gente habla de los algoritmos como el que hablara de ciencia exacta, sin saber que un algoritmo es producto de una persona humana, que puede hacer el bien y el mal, que puede tener el objetivo que la solución sea la mejor o la más rápida. Los algoritmos tienen sesgo y, sobre todo, de género. Es que están diseñados por hombres y están entrenados con datos que son erróneos porque ahí no están representadas las mujeres o las minorías, de forma que, en una selección aleatoria, la probabilidad de que salga un hombre siempre va a ser muy superior a la de una mujer.

P. En una sociedad tan tecnologizada como la nuestra, ¿qué se puede hacer ante esta desigualdad? 

R. Yo pido que las mujeres nos impliquemos en la tecnología, porque lo primero que tenemos que hacer es empezar a educar a nuestros asistentes virtuales y educar a nuestra inteligencia artificial. ¿Eso cómo se hace?Pues cuando le pidas un informe a la inteligencia artificial que haría un experto, pídele el informe que haría una experta. Pregúntale qué te recomendaría, por ejemplo, para ir a una fiesta como si fueras un chico y otra vez, como si fueras una chica.Ahí te vas a dar cuenta la diferencia tan grande que tiene la inteligencia artificial según quién eres. Eso también condiciona muchas cosas, como el hecho de que las mujeres estén relegadas en las búsquedas o en los resultados de los algoritmos, o en las decisiones automatizadas, en las búsquedas de empleo o en la concesión de las ayudas sociales, como ya hemos dicho, pero también lo están para los coches automatizados. ¿O crees que un coche automatizado si tiene que elegir a quién atropellar, va a atropellar lo mismo a un hombre que a una mujer? No, tiene su orden de relación, tiene su organización del mundo, sabe quién es más importante y no somos nunca nosotras.

Reconozco que hay una especie de aversión de la mujer a la tecnología y ese es el mayor error que hemos cometido. Por eso, tenemos que meternos en la tecnología, empezar a implicarnos en los diseños, a pensar con esa mente. Porque todo lo que tú, mujer, no programes, lo van a programar por ti y nunca va a ser en tu beneficio. Hay que meterse y tomar decisiones sobre la tecnología que vas a usar y preguntarte por qué usas esa y no otra, por qué esto está hecho así y no de otra forma, porque detrás de todo eso hay muchos intereses. 

La mujer en la ciencia y en las profesiones sanitarias ha avanzado mucho, porque atienden a personas, porque hay un factor social, humano. En cambio, la tecnología que han diseñado no es para resolver problemas humanos, es para hacer tonterías. Por eso, ahora cuando dicen cosas como que la inteligencia artificial es muy creativa, siempre digo, creativa quiero ser yo; lo que quiero es que la inteligencia artificial haga las camas, que resuelva cosas. Y para eso, hace falta que las mujeres estemos dentro del modelo. Estoy convencida de que, en el momento en que la tecnología se oriente por necesidades humanas y colectivas, su sentido será totalmente distinto.

El trabajo de Paloma Sanz y Guadalupe Meléndez

‘La representación de la mujer en la esfera virtual. Una creación de identidades deportivas desde la hegemonía masculina’ es el capítulo elaborado por las doctoras en Comunicación y profesoras del departamento de Marketing y Comunicación de la Universidad de Cádiz, Paloma Sanz Marcos y Guadalupe Meléndez González-Haba, que también asistieron a la presentación.

Lucía Benitez, con Paloma Sanz Marcos y Guadalupe Meléndez González-Haba

Lucía Benitez, con Paloma Sanz Marcos y Guadalupe Meléndez González-Haba.  REYNA

A partir de un videojuego de surf, las investigadoras han analizado la representación de la mujer y han puesto de relieve “la visión estereotipada y tremendamente sexualizada de la mujer” que ofrecen los videojuegos y han alertado de cómo las jóvenes llegan a asumir como norma dichos estereotipos y la cosificación de las mujeres en estos entornos digitales. De otro lado, han desvelado cómo muchas jóvenes evitar emplear avatares femeninos, totalmente sexualizados y con poca ropa, como medida de prevención de ataques machistas por parte de la comunidad virtual.

Fuente