Intelligence artificielle : des droits humains à l’utilisation des données en passant par la santé, que nous promet l’avenir ?

L’intelligence artificielle (IA) se développe depuis quelques années à toute vitesse. En Belgique, nous sommes bien loin de laisser ces technologies au hasard. Pour preuve, cette semaine est consacrée à l’IA.

Déjà présente dans de nombreux secteurs tels que la santé ou les ressources humaines, l'intelligence artificielle peut poser un certain nombre de problèmes qui restent à régler. Il s’agit souvent de biais présents dans les bases de données qui alimentent ces "robots" dans leurs apprentissages et qui peuvent discriminer une partie de la population. La question des données personnelles est aussi un sujet qui divise. Une proposition devrait être déposée à la fin du mois d’avril par l’Europe afin de réglementer l’IA. La Belgique, à son niveau, y travaille aussi.

Tous ces facteurs en tête, comment va évoluer cette technologie dans les années à venir alors que les défis sont nombreux ? Des spécialistes de l’intelligence artificielle livrent leur vision de l’avenir à propos de cette technologie. Droits humains, santé, énergie, industrie, mobilité, etc. : les possibilités sont nombreuses.

L’éthique, le droit humain et la démocratie

Comment remédier aux problèmes qui émanent des bases de données ? Parmi les pistes de solutions pour les éviter, reconnaître qu’ils existent semble un bon de départ, estime Nathalie Smuha, chercheuse à la KU Leuven en matière de droit et éthique de la technologie, avec un focus en ce moment sur l’IA et le Big Data. Elle note que des entreprises telles que Google ou IBM ont commencé à développer des outils de contrôle, tout en étant consciente qu'ils n'offriront jamais une solution complète. Cette chercheuse constate aussi que des juristes travaillent de plus en plus avec des informaticiens (des data scientists) au moment de développer un système à base d’IA.

Les biais proviennent souvent du contenu inséré dans les bases de données, il faut donc être vigilant et assurer le respect représentativité des données. Mais les biais, peuvent aussi être issues du travail des développeurs des algorithmes et là, entre autres,  "l’idée serait d’avoir de la diversité parmi les équipes de développeurs". Tout cela doit être pensé en amont du projet afin d’éviter les problèmes par la suite. Mais, la chercheuse de la KU Leuven pense que cela ne sera pas le cas, tant qu’il n’y aura pas d’obligation de vérifier et limiter le risque de biais avant l'utilisation du système. En outre, des standards de vérification devraient aussi être mis en place, "comme on fait des audits financiers dans des entreprises, il faudrait la même chose avec l’IA". Une réglementation semble donc une bonne piste afin que la population, mais aussi les professionnels, soient en confiance avec cet outil.

Pour Nathalie Smuha ce qui pourrait bien bouleverser l’IA à l’avenir, "c’est qu’on aura plus de règles, plus d’éthique et surtout plus de réflexions sur quand et comment l'IA est utilisée. Et ça va changer l’IA aussi".


►►► L'éthique dans l'Intelligence artificielle : les lois européennes, un frein à l'innovation ?


Garder une responsabilité humaine

Nathalie Smuha espère aussi une meilleure collaboration entre l’homme et la machine. Elle imagine que l’on va de plus en plus automatiser les processus. Cela implique de faire de plus en plus confiance à ces dispositifs technologiques, sans une vérification humaine systématique. Mais elle craint que cela ne se fasse sans une réflexion approfondie sur les tâches que nous aimerions réellement automatiser, et sur les conséquences pour la société. Si cela peut être vu comme une opportunité, en matière de temps par exemple, cette chercheuse rappelle qu’il y a des domaines où il ne s’agit pas de donner une réponse "objective ou binaire" de type "oui ou non". On pense à la Justice, mais aussi dans le domaine des ressources humaines. "Ce n’est pas vraiment une question de correct ou pas". Autrement dit, dans le domaine de la Santé, par exemple, une IA pourrait être utilisée pour vous dire si une personne a un cancer ou pas, "mais je ne pense pas que l’IA pourra nous aider avec des questions où la réponse n’est ni correcte ni fausse, mais juste ou injuste, mais aussi pour des questions pour lesquelles plusieurs réponses sont possibles, et la réponse dépend d'un choix de politique. Comme, par exemple, pourquoi embaucher cette personne-là et pas une autre ?". La crainte pour cette chercheuse est que tout cela soit confondu et que l’on fasse dans tous les cas confiance à la machine.

Pourquoi ces craintes ? Car une tendance est déjà en marche, souligne cette spécialiste. Les êtres humains ont majoritairement tendance à faire confiance à la machine, notamment quand celle-ci donne à plusieurs reprises des réponses que nous avions en tête. Après un certain temps, notre esprit critique s’estompe pour accepter plus facilement la réponse proposée par l’IA. Elle rappelle aussi que la pression peut être forte pour accepter ce fonctionnement. Elle cite en exemple le cas de la justice en Belgique et son retard qu’il faut résorber. "Si on vous dit, on a un système d’IA qui peut vous assister… Mais comment évaluer cette assistance et quand est-ce qu’elle commence de facto à remplacer, si on n’a pas vraiment les outils et le temps pour analyser la valeur de cette assistance ?" Comme cela était souligné dans le cas de la médecine, cette spécialiste estime aussi qu’une formation des professionnels de la justice pour faire face à cette évolution est nécessaire et n’existe pas encore en Belgique à l’heure actuelle.

"Tensions sur la ligne"

Mieke De Ketelaere, directrice du programme IA à l’institut de recherche IMEC (Centre Interuniversitaire Microélectronique) à Louvain, travaille sur la promotion de l’intelligence artificielle comme technologie du futur. Actuellement 17% de l’industrie en Belgique a recours à cette technologie. C’est trop peu, estime-t-elle, en regard des budgets déjà investis. "L’IA, d’un côté c’est très positif car ça apporte beaucoup de valeur. Mais en ce moment on a beaucoup de tension sur la ligne entre ceux qui y croient et ceux qui n’y croient pas."

Des systèmes énergivores

Pour réduire la "tension sur la ligne", Mieke De Ketelaere estime qu’il faut jouer sur 3 tableaux. Le premier concerne la consommation d’énergie : "Ce type de système, c'est énorme". Pour trouver des solutions, la nature est un bon exemple. "Que l’on soit un homme ou un animal, on est capable de prendre des décisions avec très peu d’énergie".


►►► Quand améliorer l’efficience énergétique ne suffit plus, ou l’effet rebond dans le numérique (L’ère des données 2.1)


Communication et processus complexe

Un autre souci qu’elle tente de résoudre est la différence entre la phase test d’un système et sa mise en application dans la vie réelle. Pour comprendre la nuance, elle donne l’exemple d’un système capable de détecter un mélanome, "mais il ne fait que ça", pointe-t-elle. L’idée est donc d’élargir le champ d’application de l’IA afin qu’elle puisse s’adapter à notre monde complexe.

Autre but, réaliser des systèmes capables d’interagir entre eux. Par exemple, dans un véhicule, il y a une multitude de capteurs (caméras, radars, etc.) qui travaillent indépendamment les uns des autres. Le but est dès lors de traiter ces informations par un seul système : "Nous, on a un cerveau. On ne va pas d’abord analyser avec notre œil et ensuite avec nos oreilles. On fait tout au même moment."

Une IA décentralisée

Mieke De Ketelaere pense que nous nous dirigeons vers un monde où les machines n’auront plus besoin d’écrans (tablettes, ndlr) pour interagir avec nous. Elles pourront analyser nos mouvements et agir en fonction de ceux-ci. La technologie nécessaire serait déjà disponible dans nos téléphones sans qu’on ne le soupçonne. Les applications seront nombreuses, selon cette passionnée d’IA.

Une autre évolution, concerne le fonctionnement actuel de nos dispositifs connectés. Actuellement, de nombreuses actions (sur nos téléphones, tablettes, ordinateurs, voitures, etc.) nécessitent des transferts de données importantes jusqu’aux fournisseurs de services tels que Google, Amazon, etc. pour être traitées. Ceux-ci nous renvoient ensuite la réponse. Tout cela a plusieurs inconvénients. Citons notamment le transfert des données, l’impossibilité de prendre une décision en temps réel, la consommation d’énergie et aussi : "Au niveau des données privées, c’est là où il y a beaucoup de choses à faire en ce moment. Le fait que tout le monde a accès à nos données et on ne sait plus où elles se trouvent… ".

Pour le futur, la directrice du programme IA à l’institut de recherche IMEC, estime qu’il faut travailler sur des solutions IA décentralisées. La réflexion est en cours, notamment avec l’Europe. Ce qui est imaginé actuellement, c’est de garder les données sur nos dispositifs et de ne faire voyager que l’algorithme nécessaire. L’analogie pour comprendre à quoi cela correspond peut se trouver en cuisine. Pour préparer un plat nous avons besoin d’ingrédients, ce sont les données. La recette, c’est l’algorithme.

L’utilisation des données

"L’intelligence artificielle va mettre la Santé publique à un autre niveau… plus proche du citoyen, plus précise […], mais cela va demander des investissements importants". Voilà la vision d’avenir de Frédéric Pivetta, spécialiste de l’intelligence artificielle et patron de la société Dalberg Data Insight. Pour lui, le citoyen devra aussi s’investir dans ce projet, notamment avec un partage plus intelligent de ses données. Les gens seraient aujourd’hui trop passifs.

Si on veut arriver dans un monde où l’IA prend un pas positif, il faut que les gens comprennent mieux comment cela fonctionne

Rappelons que l’IA est un algorithme qui apprend sur base de données qu’on lui fournit. L’un des problèmes que relève ce spécialiste de l’IA, c’est la dispersion de ces données, notamment chez les GAFAM, les gouvernements, sur les téléphones, etc. "C’est très compliqué à mettre en commun". La tendance actuelle est de créer un marché commun de la donnée à travers l’Union européenne. Elles pourraient être réutilisées comme cela se fait déjà dans la fintech (contraction de : finance et technologie) avec les données bancaires. Aller dans cette direction, c’est le souhait de ce spécialiste des Big data pour construire un écosystème et une gouvernance des données au niveau belge. Cela a déjà été mis en application au sein de la Task Force 'Data & Technology against Corona' avec les données de Proximus, Telenet, Sciensano, le gouvernement, le régulateur et "ça s’est très bien passé". L’homme aimerait aller plus loin, mais cela implique que les citoyens comprennent ce qu’est le digital et maîtrisent leurs données, explique-t-il. Enfin, il faudrait "un régulateur qui fonctionne de manière positive". Autrement dit, un régulateur qui au-delà de dire ce qu’on ne peut pas faire avec les données, expliquerait aussi ce que l’on peut faire avec pour alimenter les algorithmes de l’IA, estime-t-il.

Une application pour lutter contre les violences faites aux femmes

Parmi les projets qui lui tiennent aussi à cœur, une application ou un site internet pour lutter contre les violences faites aux femmes. L’idée est qu’une victime potentielle puisse interagir avec un robot. La solution aurait plusieurs avantages et répondrait à plusieurs besoins. Le service sera disponible 24h sur 24 et 7 jours sur 7, l’application pourra couvrir des situations très larges, de la main aux fesses jusqu’au viol.

Utiliser ce logiciel permettrait également d’avoir une vue plus complète de ce type de violences en améliorant les statistiques et de garder une trace pour une procédure judiciaire. La machine pourrait également analyser les données: "ça permet alors de croiser des histoires et de se rendre que dans certains lieux il y a plus de choses qui se passent […] ça permet aussi d’améliorer la répression." La machine sera capable d’écouter : "quand on est victime d’une violence, parler à un être humain peut-être quelque chose de positif, parce que vous sentez une certaine empathie, mais parler à un robot peut être quelque chose de positif parce que vous ressentez une absence de jugement". L’expérience a déjà été développée dans le cadre de la santé mentale. Ce type de logiciel pourrait se développer dans des environnements différents (entreprises, campus, espace public, etc.). Tout cela est construit avec des associations de terrain et la police, précise-t-il.

Les données médicales aussi importantes que le don d’organes

Les deux domaines où les répercussions de l’IA seront les plus importantes sont la médecine et les médias. C’est ce que pense Benoît Macq, professeur à l’école polytechnique de Louvain, responsable de l’institut Trail et spécialiste dans le traitement des images et l’interaction entre les ordinateurs et les humains.

En médecine, son raisonnement est le suivant : plus un médecin pratique son art, plus il sera performant. Le fait qu’une intelligence artificielle puisse consulter un nombre incalculable de données lui donnerait une puissance considérable. Cela expliquerait les percées de l’IA dans le diagnostic et dans l’optimisation des traitements individualisés. "On sait aujourd’hui, qu’un radiologue qui utilise l’intelligence artificielle va remplacer le radiologue qui ne l’utilise pas".

Afin d’être moins dépendant des données, ce spécialiste travaille au sein de l’institut Trail, d’une part sur une IA avec des algorithmes qui développent une intuition et d’autre part sur un projet d’hôpitaux en réseau dans lequel l’IA irait puiser les données nécessaires. Les données médicales sont évidemment anonymisées, rassure le spécialiste. Benoît Macq estime que les patients devraient donner leur accord pour l’utilisation de leurs données, "pour moi fournir des données médicales à une IA, c’est aussi important que le don d’organes".


►►► À lire aussi : Une semaine de débat autour de l’intelligence artificielle : la Santé, "c’est le plus passionnant et on a du concret"


La mobilité et l’emploi

Hugues Bersini, professeur d’informatique et directeur du laboratoire d’intelligence artificielle (Iridia) à l’Université libre de Bruxelles. Il participe également au projet FARI, un nouvel institut d’intelligence artificielle pour le bien commun.

Pour lui, l’IA sera au centre de la mobilité et plus particulièrement à Bruxelles. Son laboratoire a mis au point dès 2017 l’application Jeasy. Ce programme propose des solutions intermodales (à vélo, à pied, en voiture, en transports en commun). Contrairement à d’autres logiciels, il peut utiliser pour un même trajet les différents moyens de transport afin de réaliser un trajet le plus économique, le plus écologique ou le plus rapide, etc. En résumé l’application peut, par exemple, vous proposer de prendre une voiture partagée jusqu’à une gare, prendre le train, poursuivre à vélo, etc. L’idée est d’y intégrer la plupart des acteurs de la mobilité de la capitale.

La question des données

La question de l’utilisation des données personnelles se retrouve régulièrement dans la presse. Pour Hugues Bersini, il faut instaurer un climat de confiance, cela implique de la transparence sur leur utilisation, à l’image de ce qui se fait dans l’open source (publication du code source qui peut-être vérifié par la communauté : ndlr), "on peut tout à fait rendre transparent une technologie garantissant la vie privée".

Accès à l’emploi

Autre projet d’avenir pour Hugues Bersini, celui d’adapté un logiciel déjà utilisé chez nos voisins français et qui permet d’accompagner les demandeurs d’emploi dans leurs démarches. L’application peut les mettre en relation avec des offres d’emploi, mais aussi en fonction des qualifications proposer des formations manquantes pour accéder à un travail. L’expérimentation est en cours chez Actiris, nous dit-il.

Energie

Enfin, un dernier projet est de permettre de mutualiser l’énergie au sein d’un quartier grâce à l’IA. Partager donc l’énergie entre voisins

JT du 13/03/2021 : Intelligence artificielle, aussi biaisée que les humains

Newsletter info

Recevez chaque matin l’essentiel de l'actualité.

OK