Un modèle conçu pour diagnostiquer le cancer de la peau peut être très précis pour les patients à la peau claire, mais moins efficace pour ceux à la peau plus foncée, ce qui conduit à un biais injuste en faveur d’un groupe par rapport à un autre. L'intelligence artificielle est de plus en plus présente dans divers domaines de la vie quotidienne, y compris la santé. Le projet EQUIHid explore l'utilisation de l'apprentissage fédéré pour améliorer l'équité et la confidentialité des services de santé. Il met en lumière les risques liés aux biais des données et à la vie privée des patients. L'objectif est de développer des algorithmes respectueux de la vie privée et équitables, tout en étudiant théoriquement l'impact de l'équité sur les performances des modèles. Des chercheurs ont montré que l'équité dans les modèles d'apprentissage automatique peut entraîner un coût en matière de vie privée. Le projet vise à garantir une meilleure confidentialité des données d'entraînement et à éviter les modèles biaisés qui pourraient conduire à des diagnostics erronés ou à des fuites de données sensibles.
Source
Archive
https://lib.irisnitescere.fr/wa/share/664f3db48947f6.17614596