Si elle est entraînée sur des données biaisées, l’IA peut reproduire et amplifier des discriminations existantes.
Par exemple, des algorithmes de recrutement ont défavorisé des candidatures féminines car ils apprenaient de données historiques biaisées. De même, les systèmes de reconnaissance faciale présentent souvent des taux d’erreur plus élevés pour les personnes de couleurs…
Ces biais algorithmiques soulèvent un enjeu d’équité et de justice sociale.
Des organismes comme la CNIL et l’OCDE appellent, régulièrement, à évaluer et corriger les biais des IA avant leur déploiement, afin d’assurer une IA digne de confiance et non discriminatoire. Sans vigilance, l’IA pourrait institutionnaliser des injustices à grande échelle.