Cómo las IA de altavoces inteligentes como Alexa y Siri refuerzan el sesgo de género
La Unesco insta a las empresas de tecnología a ofrecer versiones neutrales en cuanto al género de sus asistentes de voz

El HomePod de Apple funciona con el asistente de voz Siri
Justin Sullivan / Getty Images
Los parlantes inteligentes impulsados por asistentes de voz de inteligencia artificial (IA) que suenan femeninos están reforzando el sesgo de género, según un nuevo informe de la ONU.
Una investigación de la Unesco (Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura) descubrió que los asistentes de inteligencia artificial como Alexa de Amazon y Siri de Apple perpetúan la idea de que las mujeres deben ser sumisas y tolerantes con el mal trato, porque los sistemas son serviciales y están ansiosos por complacer. El Telégrafo diario informes.
El informe, llamado Me sonrojaría si pudiera, en referencia a una frase pronunciada por Siri después de un comentario sexual, dice que las empresas de tecnología que hacen que sus asistentes de voz sean mujeres por defecto están sugiriendo que las mujeres son ayudantes dóciles que pueden estar disponibles al tacto. de un botón, agrega el periódico.
La agencia también acusa a las empresas de tecnología de no implementar las salvaguardias adecuadas contra el lenguaje hostil, abusivo y de género, informa. El borde .
En cambio, la mayoría de las IA responden a los comentarios agresivos con una broma astuta, señala el sitio de noticias de tecnología. Si se le pide que haga un sándwich, por ejemplo, Siri dice: No puedo. No tengo condimentos.
Empresas como Apple y Amazon, integradas por equipos de ingenieros mayoritariamente masculinos, han construido sistemas de inteligencia artificial que hacen que sus asistentes digitales feminizadas reciban el abuso verbal con coqueteos de atraparme si puedes, dice el informe de la Unesco.
¿Qué han encontrado otras investigaciones?
El informe de la Unesco cita una serie de estudios, incluida una investigación de la empresa de tecnología estadounidense Robin Labs que sugiere que al menos el 5% de las interacciones con asistentes de voz son explícitamente sexualmente explícitas.
Y la compañía, que desarrolla asistentes digitales, cree que es probable que la cifra sea mucho mayor debido a las dificultades para detectar el habla sexualmente sugerente. El guardián informes.
La agencia de la ONU también apunta a un estudio de la firma de investigación Gartner, que predice que las personas tendrán más conversaciones con el asistente de voz en su altavoz inteligente que sus cónyuges para 2020.
Los asistentes de voz ya gestionan un estimado de mil millones de tareas por mes, que van desde reproducir canciones hasta ponerse en contacto con los servicios de emergencia.
Aunque algunos sistemas permiten a los usuarios cambiar el género de su asistente de voz, la mayoría activa voces obviamente femeninas por defecto, el BBC informes.
El informe de la Unesco concluye que este aparente sesgo de género merece una atención urgente.
¿Cómo podrían las empresas de tecnología abordar el problema?
La Unesco sostiene que se debería exigir a las empresas que hagan que sus asistentes de voz anuncien que no son humanos cuando interactúan con las personas, informa El Sunday Times .
La agencia también sugiere que los usuarios deben tener la oportunidad de seleccionar el género de su asistente de voz cuando obtienen un nuevo dispositivo y que debe estar disponible una opción de género neutral, agrega el periódico.
Además, las empresas de tecnología deberían programar asistentes de voz para condenar el abuso verbal o el acoso sexual con respuestas como no o que no es apropiado, dice la Unesco.
Las empresas tecnológicas aún no han respondido al estudio.