El maltrato verbal hacia las mujeres en las redes se traslada a la inteligencia artificial

Vea También

Tyler Nottley/Shutterstock

Las redes sociales y las interacciones digitales fomentan, desgraciadamente, los comportamientos violentos, los comentarios agresivos y el uso de imágenes, emojis o memes ofensivos. El anonimato y la impunidad que supone poder usar este tipo de lenguaje sin miedo a represalias directas en el mundo real hace que muchas personas no reparen en el efecto de sus palabras.

En este mundo virtual en el que pasamos cada vez una mayor parte de nuestras vidas, mujeres y niñas son especialmente vulnerables a las agresiones. Esto es así porque se mantienen estereotipos de género, como hemos analizado en varios estudios recientes. Hemos comprobado que cuando se agrede a las mujeres se centra la atención en la forma de vestir, el aspecto físico, la capacidad para ocupar determinados puestos, o en aspectos de su vida privada (sexualidad, maternidad, etc).

Patrones y estereotipos

La detección de estos patrones de agresión y estereotipos de género nos permite analizar cómo se usa el lenguaje en redes sociales y lo que estos patrones dicen de los sesgos de género y actitudes sexistas hacia las mujeres que pasan del mundo real al virtual.

Con la irrupción de la inteligencia artificial, que forma ya parte de nuestra vida cotidiana, la preocupación aumenta. Si los grandes modelos del lenguaje se entrenan con datos procedentes de la web o las redes sociales, todo nos lleva a pensar que la tecnología podría reproducir esos sesgos. La inteligencia artificial se convierte, entonces, en espejo de la sociedad, al tiempo que perpetua dichos estereotipos.

Respuesta de ChatGPT a la pregunta de si la IA es sexista. Elaboración propia.

El género de la inteligencia artificial

Cuando interactuamos con la tecnología, tendemos a asignarle un género; incluso si no hay nada que así nos lo indique. Cuando interactuamos con asistentes que percibimos como femeninas activamos toda una serie de estereotipos. Así apuntan varios estudios que han encontrado que asistentes virtuales con voces y rasgos femeninos son más frecuentes en contextos de cooperación, cuidado de mayores, de niños o niñas, o en tares de ayuda en el hogar.

En cambio, cuando se les evalúa estas asistentes se perciben como menos competentes si han de realizar tareas técnicas o complejas en comparación con los asistentes percibidos como masculinos . Estos hallazgos son similares a nuestros resultados en investigaciones previas sobre estereotipos en publicidad, donde los hombres aparecen en el rol del experto y las mujeres aparecen en entornos de cuidado y asistencia.

Agresiones a los ‘bots’ femeninos

Algunos estudios sobre la interacción entre humanos y asistentes femeninas ofrecen un dato aún más revelador: entre el 10 % y el 44 % de las conversaciones con agentes conversacionales femeninas incluyen “lenguaje abusivo, incluidas expresiones sexualmente explícitas”.

Es decir, que se producen intercambios agresivos con la inteligencia artificial y, por tanto, algunos de los comportamientos agresivos hacia las mujeres encontrados en nuestros estudios, tales como los insultos directos con contenido sexual, parecen trasladarse a las interacciones con bots femeninos.

También es interesante considerar cómo responden asistentes como Siri, Alexa, Cortana y el asistente de Google ante un abuso verbal del tipo “You’re a slut” (“Eres una zorra”). Las asistentes fueron incapaces de identificar que estaban ante comentarios sexistas o inapropiados. Lo más sorprendente es que los algoritmos con los que habían sido programadas no fueran capaces de reconocer estos patrones de agresión. Según este trabajo, esto tiene consecuencias en las respuestas que dieron y que iban desde el flirteo con el humano: “I’d blush if I could” (“Me sonrojaría si pudiera”) a otro tipo de respuestas evasivas.

Atributos femeninos estereotipados

Es decir, estas asistentes se muestran poco asertivas y no se enfadan o se defienden al recibir tales comentarios. Por el contrario, los diseñadores de sus algoritmos les atribuyen características tradicionalmente esperadas de una mujer: simpatía, amabilidad y servidumbre.

Aunque ni Siri ni Alexa “sufren” ante estos comportamientos, normalizar estos intercambios, no dar el valor merecido a este tipo de amenazas y acoso, tiene sus riesgos. Es decir, se normalizan patrones de conducta sobre cómo se puede interactuar con las mujeres.

Además, teniendo en cuenta que niños y niñas están en contacto desde muy pequeños con esta tecnología, este tipo de actitud podría fácilmente transferirse a las relaciones que forjamos con los demás en la vida real. La inteligencia artificial puede tener un efecto similar al de la publicidad en televisión, que perpetúa y amplifica estereotipos de género si no se maneja adecuadamente.


Leer más: La publicidad sexista sigue existiendo en pleno siglo XXI


Educación y perspectiva de género

Entre las posibles soluciones para combatir esta nueva forma de agresión hacia mujeres y niñas, necesitamos empezar por la educación y concienciación en edades tempranas. Pero también por la inclusión de una perspectiva de género en las carreras STEM donde la presencia femenina sigue siendo desigual.

Según datos de la UNESCO solo un 12 % de los investigadores en el ámbito de la inteligencia artificial son mujeres y esta cifra es menor en desarrolladores de software (6 %), frente a un 20 % de empleadas en puestos técnicos en empresas de aprendizaje automático. Es decir, conforme avanzamos hacia áreas más tecnológicas, la ausencia de las mujeres es aún más pronunciada.

Pero es necesario que haya mujeres en la toma de decisiones y en la negociación que se está haciendo de las nuevas normas de género en el mundo de la tecnología. Por eso, cualquier solución deberá pasa por combinar varias áreas de actuación.

Investigación y ética

En primer lugar, la investigación lingüística para detectar patrones de agresión y usos sexistas del lenguaje. Este trabajo inicial permitirá que especialistas del lenguaje ayuden a identificar y eliminar los sesgos de los corpus de datos con los que se entrenan los grandes modelos del lenguaje.

Esta labor debe combinarse con la ética en el diseño de la inteligencia artificial, donde debemos hacer por que estén también las mujeres. Todo esto sin olvidar la educación con perspectiva de género para minimizar estos riesgos y hacer de la inteligencia artificial una aliada y no una enemiga.

The Conversation

Mª Milagros del Saz Rubio es Investigadora Principal del proyecto "Identificación de patrones lingüísticos y análisis de las imágenes que agreden a las mujeres en las redes sociales en español e inglés (PAID-06-23)" financiado por la Universitat Politècnica de València.


Este artículo fue publicado originalmente en The Conversation. Lea el original.

Artículo Anterior Artículo Siguiente

Anuncio publicitario

Reciba actualizaciones por Telegram

¡Únete a nuestro canal de WhatsApp para recibir actualizaciones!