Según un reciente estudio de la ONU, asistentes digitales como Siri y Alexa refuerzan estereotipos de género dañinos
Alexa de Amazon y Siri de Apple son acusados de perpetuar ideas anticuadas y dañinas sobre las mujeres a través de sus respuestas sumisas a las preguntas
En un informe reciente de la UNESCO se encontró que Siri, Alexa y otros asistentes de inteligencia artificial como Cortana de Microsoft y Google Assistant, todos ellos expresados por mujeres como una configuración predeterminada, están perpetuando estereotipos de género dañinos según los cuales “las mujeres son ayudantes obligadas, dóciles y ansiosas por complacer, disponibles en la tocar un botón o con un comando de voz contundente.” El informe también destaca las respuestas pasivas y educadas que los asistentes dan cuando los usuarios hacen comentarios sexualmente abusivos, alentando así el lenguaje sexista y abusivo. En el informe se señala lo siguiente:
“El asistente no tiene ningún poder de acción más allá de lo que el comandante le pide. Honra los comandos y responde a las consultas independientemente de su tono u hostilidad. En muchas comunidades, esto refuerza los prejuicios de género que se suelen tener en cuenta que las mujeres son subordinadas y tolerantes a los malos tratos. Lo que surge es una ilusión de que Siri — una cadena insensible, ignorante y no humana de código informático — es una mujer heterosexual, tolerante y ocasionalmente invitadora de avances sexuales masculinos e incluso acoso. Proyecta una actitud cifrada digitalmente “los chicos serán los chicos”.
El informe, escrito por la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura, conocida como UNESCO, fue nombrado “I’d Blush If I Could” (“Me ruborizaría si pudiera”), que es la respuesta que Siri dio una vez cuando los usuarios daban órdenes sexualmente explícitas, el estudio esbozó los efectos del sesgo en la investigación y el desarrollo de productos de inteligencia artificial y la posibles consecuencias negativas a largo plazo de condicionar a la sociedad, en particular a los niños. Especialmente dado que los asistentes de voz tienen voces femeninas y usan nombres femeninos, por lo que las empresas tecnológicas están una vez más condicionando a los usuarios a que se vuelvan a caer en las percepciones anticuadas y dañinas de las mujeres.
El estudio hizo las primeras recomendaciones oficiales de la ONU con respecto a los asistentes personales de inteligencia artificial, instando a las empresas y a los gobiernos a poner fin a la práctica de convertir a los asistentes digitales en mujeres por defecto. Además de sugerirles que exploren la posibilidad de hacer que las voces no sean “ni masculinas ni femeninas”, así como disuadir a los asistentes del programa de un lenguaje abusivo o sexista, y les exijan que “anuncien la tecnología como no humana al comienzo de las interacciones con los usuarios humanos”.