logo Elle

« Les IA montrent des schémas racistes et sexistes que l'on croyait dépassés », Aurélie Jean

« Les IA montrent des schémas racistes et sexistes que l'on croyait dépassés », Aurélie Jean
Publié le , mis à jour le

De nos recommandations de films à l’attribution de crédits bancaires, les algorithmes sont partout. Loin d’être neutres, ils comportent encore beaucoup de biais. Explications.

« L’intelligence artificielle va avoir tendance à associer une femme en blouse blanche à une infirmière alors qu’elle peut être médecin ! souligne Aurélie Jean, scientifique spécialisée en modélisation algorithmique. C’est ce qu’on appelle un biais algorithmique. » Ils sont partout, mais dans le domaine de la santé, ils peuvent entraîner des conséquences particulièrement dramatiques. « Le diagnostic des infarctus chez les femmes est encore largement sous-évalué par exemple, car les études ont été menées pendant des décennies uniquement sur des hommes », ajoute-t-elle.

Apprendre de ces biais

« Mais ces biais ont paradoxalement un effet révélateur, car ils mettent en lumière des schémas racistes et sexistes que l'on croyait dépassés », poursuit Aurélie Jean. Genre, âge, couleur de peau... Les algorithmes ont tendance à perpétuer voire à accentuer les stéréotypes. Mais bonne nouvelle, ce n’est pas une fatalité. « Nous devons d’abord prendre conscience de nos propres biais cognitifs, pour éviter de les transférer aux modèles que nous créons, explique-t-elle. Les algorithmes ne sont pas biaisés par nature, ils reflètent les biais de ceux qui les conçoivent et les utilisent. La réponse d’une IA générative – comme Chat GPT – varie...

Publicité

À lire aussi sur Elle:

Accessibilité : partiellement conforme