L'UNESCO dénonce les stéréotypes portés par les assistants vocaux
L’UNESCO (Organisation des Nations unies pour l’éducation la science et la culture) a publié un rapport vendredi 17 mai dénonçant les « préjugés sexistes » portés par les assistants numériques vocaux et pointant du doigt les inégalités qui existe entre les hommes et les femmes quant à l’accès aux formations et aux métiers du secteur numérique. Le point dans cet article.
Les assistants vocaux diffusent-ils des préjugés sexistes ?
C’est ce que suggère une étude de l’UNESCO effectuée en collaboration avec le ministère allemand de la Coopération économique et Equals Skills, l’association de plusieurs gouvernements et d’organisations internationales qui plaide en faveur de l’égalité femmes hommes dans le secteur de la technologie et du numérique.
« La soumission et la servilité exprimées par tant d’assistantes vocales » sont « une illustration du préjugé sexiste véhiculé par les produits faisant appel à l’intelligence artificielle », estiment les chercheurs.
D’une façon générale, le rapport estime que les voix féminines de l’Intelligence artificielle sont souvent utilisées dans des fonctions d’assistante dotées d’une « personnalité docile » et que les voix masculines sont quant à elles privilégiées pour des services « plus sérieux » comme des services bancaires.
Une porte ouverte à la violence verbale et au harcèlement
« Les machines obéissantes et serviles qui se présentent comme des femmes entrent dans nos maisons, nos voitures et nos bureaux », explique Saniye Gülser Corat, la directrice de la division sur l’égalité des genres à l’UNESCO dans ce rapport. Or « leur asservissement programmé influe sur la façon dont les hommes s’adressent aux voix féminines et façonnent la manière dont les femmes réagissent aux demandes et s’expriment ».
Particulièrement mises en cause, les réponses parfois naïves, voire trop polies des assistantes vocales aux insultes et commentaires désobligeants des utilisateurs. Par exemple, avant que les équipes d’Apple ne modifient ce paramètre en avril dernier, Siri l’assistante vocale, dans sa version anglaise féminine répondait « I'd blush if I could » (Je rougirais si je le pouvais, NDLR) lorsque l’utilisateur l’insultait. Cela crée « un modèle d’acceptation et de tolérance du harcèlement sexuel et de la violence verbale ».
De plus, le rapport considère que ces programmes « font des femmes “le visage” des défauts et des erreurs résultant des limitations du matériel et des logiciels conçus principalement par des hommes ».
Une voix neutre pour éviter les discriminations
Les « stéréotypes » dont parle le rapport trouveraient leur « origine dans l’inégalité des sexes en matière d’éducation et dans le secteur technologique », selon les chercheurs. En effet, les secteurs de l’intelligence artificielle et du développement de logiciels comptent peu de femmes. Seulement 12 % des chercheurs dans le domaine de l’IA et seulement 6 % des concepteurs de logiciels sont des femmes.
Une des solutions envisagées, outre garantir l’accès aux femmes aux formations et métiers du numérique, et ce, partout dans le monde, a été mise au point par des chercheurs danois du collectif Equal AI en collaboration avec l’agence créative Virtue. Il s’agit d’une voix neutre, non genrée, qui pourrait servir pour l’intelligence artificielle. Cette voix a été conçue à partir de voix de personnes ne s’identifiant pas à un genre en particulier et dont les fréquences ont ensuite été modifiées par les chercheurs en laboratoire jusqu’à en faire une seule voix appelée « Q ».
Le but du collectif est de lutter contre les discriminations liées au genre et il souhaite promouvoir leur création auprès de Google, Amazon, Apple ou Microsoft. « Pour que je devienne un troisième choix de voix pour les assistants vocaux, j’ai besoin de votre aide », déclare « Q » dans une vidéo promotionnelle sur YouTube.