Maltrato verbal a las mujeres en la inteligencia artificial

04 diciembre 2024 07:12 | Actualizado a 04 diciembre 2024 07:21
Comparte en:

Las redes sociales y las interacciones digitales fomentan, desgraciadamente, los comportamientos violentos, los comentarios agresivos y el uso de imágenes, emojis o memes ofensivos. El anonimato y la impunidad que supone poder usar este tipo de lenguaje sin miedo a represalias directas en el mundo real hace que muchas personas no reparen en el efecto de sus palabras.

En este mundo virtual en el que pasamos cada vez una mayor parte de nuestras vidas, mujeres y niñas son especialmente vulnerables a las agresiones. Esto es así porque se mantienen estereotipos de género. Hemos comprobado que cuando se agrede a las mujeres se centra la atención en la forma de vestir, el aspecto físico, la capacidad para ocupar determinados puestos, o en aspectos de su vida privada (sexualidad, maternidad, etc).

Con la irrupción de la inteligencia artificial, que forma ya parte de nuestra vida cotidiana, la preocupación aumenta. Si los grandes modelos del lenguaje se entrenan con datos procedentes de la web o las redes sociales, todo nos lleva a pensar que la tecnología podría reproducir esos sesgos. La inteligencia artificial se convierte, entonces, en espejo de la sociedad, al tiempo que perpetua dichos estereotipos.

Cuando interactuamos con la tecnología, tendemos a asignarle un género; incluso si no hay nada que así nos lo indique. Cuando interactuamos con asistentes que percibimos como femeninas activamos toda una serie de estereotipos. Así apuntan varios estudios que han encontrado que asistentes virtuales con voces y rasgos femeninos son más frecuentes en contextos de cooperación, cuidado de mayores, de niños o niñas, o en tares de ayuda en el hogar.

Entre el 10 % y el 44 % de las conversaciones con agentes conversacionales femeninas incluyen «lenguaje abusivo, incluidas expresiones sexualmente explícitas»

En cambio, cuando se les evalúa estas asistentes se perciben como menos competentes si han de realizar tareas técnicas o complejas en comparación con los asistentes percibidos como masculinos . Estos hallazgos son similares a nuestros resultados en investigaciones previas sobre estereotipos en publicidad, donde los hombres aparecen en el rol del experto y las mujeres aparecen en entornos de cuidado y asistencia.

Algunos estudios sobre la interacción entre humanos y asistentes femeninas ofrecen un dato aún más revelador: entre el 10 % y el 44 % de las conversaciones con agentes conversacionales femeninas incluyen «lenguaje abusivo, incluidas expresiones sexualmente explícitas».

Es decir, que se producen intercambios agresivos con la inteligencia artificial y, por tanto, algunos de los comportamientos agresivos hacia las mujeres encontrados en nuestros estudios, tales como los insultos directos con contenido sexual, parecen trasladarse a las interacciones con bots femeninos.

También es interesante considerar cómo responden asistentes como Siri, Alexa, Cortana y el asistente de Google ante un abuso verbal del tipo «You’re a slut» («Eres una zorra»). Las asistentes fueron incapaces de identificar que estaban ante comentarios sexistas o inapropiados. Lo más sorprendente es que los algoritmos con los que habían sido programadas no fueran capaces de reconocer estos patrones de agresión. Según este trabajo, esto tiene consecuencias en las respuestas que dieron y que iban desde el flirteo con el humano – «I’d blush if I could» («Me sonrojaría si pudiera»)– a otro tipo de respuestas evasivas.

Entre las posibles soluciones para combatir esta nueva forma de agresión hacia mujeres y niñas, necesitamos empezar por la educación y concienciación en edades tempranas

Entre las posibles soluciones para combatir esta nueva forma de agresión hacia mujeres y niñas, necesitamos empezar por la educación y concienciación en edades tempranas. Pero también por la inclusión de una perspectiva de género en las carreras STEM donde la presencia femenina sigue siendo desigual.

Según datos de la UNESCO solo un 12 % de los investigadores en el ámbito de la inteligencia artificial son mujeres y esta cifra es menor en desarrolladores de software (6 %), frente a un 20 % de empleadas en puestos técnicos en empresas de aprendizaje automático. Es decir, conforme avanzamos hacia áreas más tecnológicas, la ausencia de las mujeres es aún más pronunciada.

Pero es necesario que haya mujeres en la toma de decisiones y en la negociación que se está haciendo de las nuevas normas de género en el mundo de la tecnología. Por eso, cualquier solución deberá pasar por combinar varias áreas de actuación.

Comentarios
Multimedia Diari