Une intelligence artificielle (IA) éthique. La formule revient comme un leitmotiv depuis l'essor de l'apprentissage profond d'abord, et celui, actuel, de l'IA dite générative. C'est dû au fonctionnement de ces algorithmes, qui apprennent des règles statistiques à partir de données pour donner ensuite des réponses. Sauf que l'on ne connaît pas ces règles, qui dépendent justement des données ! D'où une quantité de risques de biais et de résultats difficiles à expliquer, voire obtenus par une mauvaise approche : en 2016, des chercheurs montraient qu'un algorithme conçu pour distinguer des huskies et des loups donnait ses réponses en fonction de la présence ou non de neige dans l'image, non de la reconnaissance des animaux.
L'article traite des implications éthiques de l'intelligence artificielle, en soulignant la nécessité d'une collaboration interdisciplinaire entre les sciences humaines et les sciences numériques pour mieux comprendre les algorithmes. Il mentionne les inexactitudes et les biais potentiels de la reconnaissance faciale par l'IA. L'accent est mis sur les défis posés par les algorithmes d'apprentissage profond et l'IA générative en termes de transparence et d'explicabilité des résultats.