Les enceintes connectées sont-elles un risque pour notre sécurité ?

Les enceintes connectées sont-elles un risque pour notre sécurité ?
Les enceintes connectées sont-elles un risque pour notre sécurité ? - © Tous droits réservés

Vous avez peut-être déjà entendu parler d'Alexa, l'assistance vocale d'Amazon qui s'est, depuis un moment, installée dans les foyers des clients de ce géant du web. Alexa est capable d'interaction vocale avec son entourage, organiser des tâches précises, lire de la musique et des podcasts et peut également contrôler des appareils intelligents. Il suffit juste de lui parler pour qu'elle s'exécute. Problème, on vient de découvrir qu'elle pouvait être berné par des sons inaudibles à l'oreille humaine et donc être manipulée.

Les autres assistants sont également concernés : Siri, Google Echo et Alexa d'Amazon seraient donc potentiellement piratables. Des chercheurs américains et chinois ont testé leur fiabilité en créant des sons trafiqués imitant parfaitement la voix humaine. Intégrés à des chansons, ces sons sont totalement inaudibles pour l'oreille humaine mais parviennent à donner des ordres aux assistants vocaux. Le premier ordre donné à l'assistant : désactiver le son pour que le propriétaire n'entende pas sa réponse. Une attaque silencieuse donc, juste grâce à une petite manipulation sonore envoyé à l'enceinte connectée.

Des risques pour l'utilisateur

Lorsqu'on prend possession de l'assistant vocal, on peut presque naviguer librement dans le smartphone de l'utilisateur : envoyer un SMS, appeler quelqu'un ou consulter un site Internet. Et c'est là que ça se complique. Des sons peuvent être envoyés à destination des enceintes pour réaliser toute une série d'opérations posant certains problèmes de sécurité. Via les enceintes, on peut facilement entrer dans les comptes en ligne du propriétaire et passer, par exemple, une commande en ligne sur Amazon. Mais ce n'est pas tout ! Outre le danger pour la sécurité des données et sur de potentielles transactions, des pirates pourraient aussi ouvrir votre porte de garage si elle est connecté à une application, désactiver votre alarme ou réaliser un virement bancaire.

Peut-on parler de faille de sécurité ?

Ce nouveau type de piratage est rendu possible par l'outil via lequel il sévit. Plutôt que d'infiltrer un ordinateur, un smartphone ou un réseau informatique, les pirates pourront manipuler nos assistants vocaux. Alors que ces assistants sont souvent allumés en permanence, la voix s'offre aux pirates comme une nouvelle porte d'entrée vers le web. Intéressant lorsqu'on sait que plus de la moitié des américains utilisent un assistant vocal sur leur smartphone et que le marché des enceintes connectées est aussi en pleine expansion : en 2021 il y aura plus d'assistants vocaux que d'humains sur la planète. C'est donc un réel problème de sécurité.

Des mesures sont déjà prises

Les fabricants, sollicités par des journalistes et des experts, assurent de leur côté qu'ils ont tous mis en place des fonctionnalités permettant de repérer les tentatives de manipulation. Cependant les tests réalisés par ces chercheurs ne sont pas très rassurants. On voit qu'il est très facile de berner ces assistants, car les machines sont encore plutôt stupides. Ces enceintes sont configurées pour reconnaître certains sons, mis bout à bout, formant des mots et puis des phrases. Mais un petit changement imperceptible et ils déraillent ! C'est le cas avec l'assistant Google qui confond "Ok Google" et "Cocaine Noodle". Aussi, une voiture autonome ne reconnaît plus un panneau stop avec un autocollant, ou encore ce logiciel de reconnaissance d'images qui prend un chat pour un avion si on modifie 2 ou 3 pixels. Rassurant, peut-être, de savoir que ces machines ne sont pas encore prêtes à nous dépasser.

 

Newsletter La Première

Recevez chaque vendredi matin un condensé d'info, de culture et d'impertinence.

OK