Les IA arrivent à la bonne réponse plus de 90% du temps. Une bonne nouvelle ? Peut-être mais, selon un communiqué du MIT, les scientifiques ne comprennent pas quelles caractéristiques d’une image permettent au programme de détecter la couleur de peau d’un patient…
Pour l’instant, les chercheurs pensent que l’imagerie médicale enregistre d’une manière ou d’une autre le niveau de mélanine dans la peau d’un patient mais d’une façon que les humains n’ont encore jamais détectée, explique le Boston Globe.
Second problème, l’IA utilise ensuite cette information et pas toujours de manière neutre : "Nous soulignons que la capacité de l’IA à prédire l’identité raciale n’est pas en soi important, mais plutôt que cette capacité est facilement apprise et est donc susceptible d’être présente dans de nombreux modèles d’analyse d’images médicales", explique Marzyeh Ghassemi, professeur adjoint au Massachusetts Institute of Technology et co-auteur de l’étude.
Cette étude relance le débat et le dilemme des programmateurs sur la capacité que l’humain a de créer une Intelligence Artificielle qui n’aurait pas les préjugés et les biais que l’on a… une IA neutre est-elle possible ?