Les enceintes connectées entrent dans nos maisons, au détriment de notre vie privée ?

Apple et Amazon viennent de lancer leurs assistants vocaux en francophonie
Apple et Amazon viennent de lancer leurs assistants vocaux en francophonie - © CC0

Petit à petit, les assistants personnels à reconnaissance vocale arrivent sur le marché francophone. D'abord développé pour un public anglophone, l'intelligence artificielle étant dans un premier temps beaucoup plus apte à comprendre et parler anglais, les Amazon Echo et HomePod d'Apple viennent d'être commercialisé en France en ce mois de juin, peu après le Google Home, en novembre 2017. Et, comme à chaque nouvelle avancée technologique s'introduisant dans les murs protégeant notre vie privée, toute la question des données personnelles et de leur utilisation revient sur le devant de la scène. 

L'arrivée des assistants vocaux n'est qu'une suite logique du développement de l'intelligence artificielle au service de notre quotidien. Plus d'interface visuelle pour envoyer un message, commander ses courses, régler la température de sa maison juste avant de revenir du travail. De quoi gagner un temps précieux. Déjà présent sur nos smartphones depuis plusieurs années, cet assistant n'a fait que s'améliorer, et peut désormais contrôler de nombreux objets connectés.

Des malentendus qui exposent notre vie privée

Tous les assistants vocaux fonctionnent de la même manière : ils sont activés grâce à un "mot d'éveil", ou encore "hotword". L'enceinte vocale écoute donc en permanence, mais ne s'active qu'à partir du moment où le mot d'éveil a été prononcé. Les constructeurs de ces enceintes sont formels : seules les conversations qui suivent le mot d'éveil sont enregistrées et analysées. Et avec déjà plusieurs quiproquos de la part des assistants, qui croient entendre le mot d'éveil et s'activent sans que leur propriétaire ne s'en aperçoivent (ce que l'on appelle des faux positifs dans un jargon plus technique). Alexa, l'IA derrière l'Amazon Echo, a même envoyé une conversation privée entre un couple à un employé du mari, sans qu'aucune instruction n'ait clairement été donnée. Amazon a reconnu le dysfonctionnement et expliqué ce comportement par des mauvaises interprétations en chaîne... explication qui n'a pas convaincu les propriétaires.

Un peu plus tôt cette année, plusieurs utilisateurs ont reporté un événement étrange : Alexa se mettait à rire toute seule, de manière inattendue.

De nouveau une affaire de faux positif : Alexa a interprété certains sons en "Alexa, laugh". Amazon a alors annoncé changer la directive en "Alexa, can you laugh ?" afin d'éviter ces mésaventures qui ont convaincu certains que l'intelligence artificielle s'était libérée de son créateur pour anéantir l'Humanité. 

Le fait d'utiliser une interface uniquement vocale pose donc plusieurs problèmes : une interprétation erronée, parfois à l'insu de l'utilisateur, mais aussi l'impossibilité de vérifier ce que l'assistant fait pour nous. Ensuite, sur une interface visuelle, si les algorithmes actuels favorisent déjà certains résultats de recherche sur d'autres, il nous est possible de voir les différents choix qui s'offrent à nous et de rapidement les parcourir. Sur une interface vocale, il faudra souvent se contenter des premiers résultats proposés.

Dès la première étape d'utilisation de ces assistants, la collecte de données, ça trébuche sur plusieurs pavés qui dépassent du chemin de l'intelligence artificielle au service de l'humain. Et lorsque l'on passe à l'étape suivante, l'analyse des données, ça devient de plus en plus caillouteux. 

Dans les conditions générales d'utilisation, les concepteurs de l'IA doivent clairement expliquer dans quels buts seront traitées les données. Et pour chacun d'entre eux, il est précisé que les données peuvent être utilisées pour améliorer le service.

Google

Apple

Amazon

Quelle confiance accorder aux constructeurs ?

A côté des données brutes vocales, ce sont aussi les métadonnées qui sont analysées et conservées sur les serveurs des entreprises. Les métadonnées, ce sont ces données accompagnant nos requêtes vocales, servant à contextualiser la demande et ainsi obtenir la réponse la plus judicieuse. Notre géolocalisation, notre genre, nos habitudes de consommation, etc. Des éléments essentiels pour une personnalisation optimale du service rendu par l'assistant vocal. Au point de nous construire une empreinte numérique, unique, qui permettrait de nous identifier ? 

Et c'est ici que se pose toute la problématique de la confiance que l'on accorde à ces grands groupes qui détiennent nos données. Alors qu'ils assurent les protéger scrupuleusement, et de les utiliser uniquement pour des usages internes ou publicitaires, le récent scandale Cambridge Analytica a révélé que les failles sont en fait, assez faciles à exploiter. Tout comme pour nos données non-vocales, c'est l'avenir qui nous dira si l'on pouvait croire dans les beaux discours de Google et consort sur la protection de la vie privée.

Des alternatives à Alexa, Google Assistant, Cortana, Siri ?

Mais si vous avez envie de suivre le flux de l'évolution technologique sans participer à l'élaboration du Big Data, il existe le "privacy as design", c'est-à-dire le développement de logiciels où la protection de la vie privée n'est pas un à-côté, mais est au cœur de son développement. Pour les assistants vocaux, il existe Snips, qui est open-source et qui utilise le "edge computing": c'est-à-dire que contrairement aux autres  assistants vocaux, les requêtes ne sont pas analysées dans le cloud mais sur le système même où se trouve l'assistant vocal (comme au bon vieux temps !). Ainsi, Snips assure que les données sont protégées.

La protection de nos données, c'est donc aussi une affaire de choix personnel. L'écosystème Google est est le parfait exemple : il a réussi à nous rendre quasi dépendant de ses services tellement ils sont efficaces, simples, presque tout le temps gratuit. Mais comme le dit l'adage, nous sommes le produit. Mais il existe des alternatives, gratuites et respectueuses de nos données, presque dans tous les cas. C'est plus compliqué, il faut parfois maîtriser certains concepts techniques, ils ne fonctionnent pas aussi bien que ceux des GAFA. Mais qui nous dit qu'à l'avenir, ces données ne nous discriminerons pas, pour l'accès aux soins de santé, à des assurances, ou simplement à un territoire ?*

*Le webdocumentaire interactif Do not track aborde de manière très intelligente et ludique cette problématique

Newsletter info

Recevez chaque matin l’essentiel de l'actualité.

OK