Fantaisiste et non étayé
Dans le journal britannique The Guardian, Toby Walsh, professeur d’intelligence artificielle à l’Université de Nouvelle-Galles du Sud à Sydney, est d’avis que "les affirmations de Lemoine sur la sensibilité de LaMDA sont entièrement fantaisistes". " Nous ne pouvons peut-être pas exclure qu’un ordinateur suffisamment puissant devienne sensible dans un avenir lointain. Mais ce n’est pas quelque chose que les chercheurs en intelligence artificielle ou les neurobiologistes les plus sérieux envisageraient aujourd’hui ", poursuit-il.
Interrogé par le New Scientist, Adrian Hilton, directeur de l’Institut de l’Université du Surrey (UK) pour l’intelligence artificielle centrée sur les personnes, estime également que la sensibilité de l’IA est une affirmation qui n’est pas étayée par les faits et parle d’affirmation "audacieuse". "Je ne crois pas pour le moment que nous comprenions vraiment les mécanismes derrière ce qui rend quelque chose sensible et intelligent", déclare Hilton au journal scientifique. "Il y a beaucoup de battage médiatique autour de l’IA, mais je ne suis pas convaincu que ce que nous faisons avec l’apprentissage automatique, pour le moment, soit vraiment de l’intelligence dans ce sens."
D’autres défis immédiats
Pour l’heure, l’IA est confrontée à d’autres questions, que celle de savoir si elle va un jour tous nous dépasser, porte sur les enjeux éthiques et de sécurité des modèles. Benoît Frénay, professeur à la Faculté d’informatique de l’UNamur, se demande plutôt aujourd’hui ce qu’on peut faire "pour qu’elle soit sûre et éthique à utiliser." En réunion en vue d’un gros projet sur l’IA "de confiance", il nous rapporte que les discussions portent par exemple sur l’utilisation de l’IA dans les ressources humaines : "lorsqu’on va choisir par exemple d’embaucher ou non une personne ; là, il y a de vraies questions éthiques à se poser, des questions d’équitabilité, est-ce qu’on va employer quelqu’un ou pas à cause de son sexe, de son âge, de son origine ethnique, etc. Ce sont évidemment des choses qui sont inacceptables et que nous, spécialistes de l’IA, on doit faire en sorte d’empêcher. Si vous êtes dans un marché du travail qui est raciste, sexiste, ou quoi que ce soit, une IA qui est entraînée là-dessus sans qu’on prenne garde, va reproduire ces biais."
Possible ou non, dans un futur plus ou moins éloigné
Sur la question de savoir si l’IA pourrait acquérir une conscience un jour, les experts sont divisés. Certains estiment que c’est tout bonnement impossible, car l’architecture des algorithmes n’y est pas adaptée. D’autres ne voient pas pourquoi les progrès du machine learning et de la robotique ne permettraient pas un jour à la conscience d’émerger dans les algorithmes. Sans connaître l’avenir, nous savons que le présent est déjà chargé d’enjeux éthiques. En novembre 2021, le Comité consultatif national d’éthique pour les sciences de la vie, en France, publiait des recommandations à propos des enjeux éthiques des agents conversationnels. Nous lui laisserons cette phrase, en guise de conclusion : "Lorsque les agents conversationnels utilisent le langage humain, l’anthropomorphisation des chatbots par leurs utilisateurs est une tendance naturelle : le perfectionnement de ces technologies tend à brouiller la frontière perçue entre les machines et les êtres humains."