On ne parle pas aux inconnus !

C’est ce que mes parents me disaient quand j’étais petit (lors de la dernière glaciation, donc 😁)… Mais je constate aujourd’hui que cet ancien conseil n’est plus vraiment au goût du jour !

Homme parlant à une petite fille (crédit Rodnae Productions)

Nous (et je m’inclus dans ce pronom collectif) avons cédé aux sirènes de la facilité et de la « user experience » en parlant à toutes sortes d’objets prétendument inanimés. Nous avons ainsi pris l’habitude de parler à nos téléphones (Dis, Siri ou OK Google), à nos véhicules (Hey Mercedes pour les plus chanceux), à nos réfrigérateurs ou nos poubelles et bien sûr à nos enceintes connectées.

Et c’est bien un problème car savons-nous ce que deviennent nos échantillons vocaux ainsi collectés ? Sommes-nous sûrs que ces équipements respectent les règles de protection des données personnelles ? Qui a lu complètement les déclarations de conformité au RGPD de son enceinte ou sa voiture ?

Un article récent du Temps (Le Texas accuse Google de récolter des données biométriques illégalement à des fins commerciales) met ainsi en évidence que la collecte de millions d’échantillons biométriques, voix, empreintes ou forme du visage, sans que les utilisateurs en aient réellement conscience, engendre un vrai problème de sécurité. Utilisés à des fins d’entrainement de systèmes d’intelligence artificielle, ces échantillons représentent une valeur commerciale pour les plateformes qui les collectent sans partage afin de peaufiner le profilage des utilisateurs… et leur adresser des publicités ciblées. Pas vraiment ce que vous souhaitiez quand vous avez réclamé la diffusion du dernier Beyoncé…

Il faut aussi considérer d’autres raisons de limiter l’usage à ces assistants :

  • Les interventions humaines parfois nécessaires pour corriger l’ordre reçu : oui, des humains écoutent vos échanges avec les machines ! Et c’est Amazon qui le dit…
  • La conservation pour une durée inconnue de ces échanges (voir l’expérience de Geoffrey Fowler ou la requête établie par un tribunal de Floride).

Plus inquiétant, ces échantillons pourraient également servir à créer des artefacts, les fameux deep fakes qui se perfectionnent chaque jour et ressemblent de plus en plus à de vrais utilisateurs : vous, en l’occurence !

Prudence, donc, dans l’utilisation de ces équipements « intelligents » dont le caractère intrusif est toujours emballé dans un discours rassurant !