En 2018, des millions de bannières ont envahi chaque site web d'Europe. On t'a dit que c'était pour te protéger. On t'a menti — ou du moins, on ne t'a pas dit toute la vérité. Et cette nuance-là a tout changé.
Avant le RGPD et la directive ePrivacy, l'Europe ressemblait à une mine d'or sans gardien. Des terabytes de données comportementales étaient collectés chaque jour — tes habitudes de navigation, tes clics, le temps exact que tu passais sur chaque page, tes horaires de connexion, tes centres d'intérêt inférés, ta localisation approximative. Tout ça existait déjà. Tout ça circulait déjà. Mais dans un vide juridique qui rendait son exploitation commerciale risquée, contestable, fragile.
Les entreprises collectaient en masse, mais elles le faisaient sur du sable. Un jugement défavorable, une enquête sérieuse de la CNIL, et l'édifice pouvait s'effondrer. La donnée avait de la valeur, mais sa légitimité était douteuse. Et la valeur d'un actif illégal reste toujours plafonnée.
C'est là que tout a changé.
Le 25 mai 2018, le Règlement Général sur la Protection des Données entre en vigueur. Les médias le présentent comme une révolution. Une victoire des citoyens. Un coup d'arrêt porté aux géants du numérique. Et en apparence, ça ressemble à ça : des amendes records, des droits formels, des bannières partout.
Mais regarde de plus près ce que ces bannières font réellement.
La bannière cookie n'est pas un mur de protection. C'est une porte qu'on te demande d'ouvrir toi-même, avec les instructions écrites en taille 9, sur fond gris, le bouton vert "Tout accepter" trois fois plus grand que le bouton "Gérer mes préférences". Ce n'est pas un accident de design. C'est un choix.
Le consentement "éclairé" que le RGPD exige n'existe pas dans la pratique. Il existe sur le papier. Et c'est justement ça le génie de l'opération : sur le papier, tu as consenti. Sur le papier, la collecte est parfaitement légale. Ce flou juridique d'avant 2018 — cette zone grise où les données étaient vulnérables — il a été comblé. Mais comblé dans l'intérêt de ceux qui collectent, pas dans le tien.
Une fois ton "consentement" obtenu, que se passe-t-il réellement avec tes données ? La plupart des politiques de confidentialité mentionnent vaguement "des partenaires commerciaux", "des finalités de recherche", "l'amélioration de nos services". Derrière ces formules lisses, il y a des contrats de revente à des data brokers, des accords de partage avec des labs de recherche, et depuis 2022-2023, des pipelines entiers vers des entreprises qui entraînent des modèles d'IA.
Tes comportements en ligne — ce que tu lis, ce que tu achètes, comment tu formules tes questions, quels films tu regardes à quelle heure de la nuit — alimentent aujourd'hui les corpus d'entraînement de systèmes d'intelligence artificielle. Des systèmes qui seront ensuite revendus comme produits, monétisés à l'échelle, démultipliés. Tu as produit de la valeur sans rémunération, sans information réelle, et sans aucun recours.
La question éthique est simple : si la bannière avait été honnête, si elle avait dit clairement "En acceptant, vous autorisez l'utilisation de vos données comportementales pour entraîner des systèmes d'intelligence artificielle commerciaux", combien d'entre nous auraient cliqué "Refuser" ?
⚠ Note sur la légalité vs l'éthique
La plupart de ces pratiques sont légales. C'est précisément le problème. La légalité a été construite sur un consentement dont le design structurel empêche toute décision éclairée. Un contrat signé sous pression cognitive massive reste un contrat signé. Mais il n'est pas moral.
Et ça, c'était encore pour le "petit peuple" du numérique. Ceux qui n'ont accès qu'aux traces de navigation et aux clics. Parce qu'il existe une autre catégorie de collecte — bien plus massive, bien plus intime — où la question du consentement ne se pose même pas. Où il n'y a pas de bannière. Pas de bouton vert. Pas de case à cocher. Rien.
Elon Musk contrôle un empire de capteurs physiques d'une ampleur inégalée dans l'histoire privée. Les Tesla sont des ordinateurs sur roues : caméras à 360 degrés actives en permanence, capteurs de vitesse, de comportement de conduite, de trajectoires, d'habitudes — à quelle heure tu pars travailler, où tu t'arrêtes, quel chemin tu prends le vendredi soir. Ces données alimentent directement les projets d'IA du groupe, dont xAI, la maison de Grok. Tu n'as pas "accepté" ça dans une bannière. Tu as signé un contrat d'achat d'un véhicule.
Starlink, c'est autre chose. C'est l'infrastructure elle-même. Quand ta connexion internet passe par les satellites de SpaceX, les métadonnées de chaque requête, les patterns d'utilisation, les volumes, les horaires — tout ça transite par un système propriétaire dont les conditions d'utilisation des données sont rédigées pour être le moins contraignantes possible. Et dans les zones reculées, en mer, dans certains pays en développement, Starlink est parfois la seule option. Pas de choix. Pas d'alternative. Pas même l'illusion d'une bannière à refuser.
- Caméras Tesla (Sentry Mode, Dashcam, Autopilot) Enregistrement continu de l'environnement physique. Partagé avec Tesla AI / xAI via conditions générales de vente du véhicule.
- Starlink — métadonnées réseau Patterns de connexion, volumes, horaires. Zéro alternative dans zones de desserte exclusive.
- X (Twitter) → xAI / Grok Accès direct à la totalité du corpus de tweets, interactions, DMs selon conditions de l'API depuis 2023. Même contenu effacé potentiellement déjà utilisé en entraînement.
- Assistants vocaux domestiques (Alexa, Google Home, Siri) Écoute en arrière-plan dans l'espace privé. Enregistrements parfois révisés par des humains selon les constructeurs. Chez toi. Sans signal visible.
- Smart TV & objets connectés Habitudes de visionnage, horaires, inférences comportementales. Revente à des tiers sans granularité réelle dans les paramètres.
- Véhicules connectés (non-Tesla) BMW, Ford, Volkswagen : idem. La voiture comme capteur de mobilité. Données de géolocalisation précises, revendues à des assureurs et data brokers.
On peut donc se poser une question qui dérange profondément le secteur : quelle proportion des modèles d'IA actuellement en production ont été entraînés sur des données dont le consentement était légalement valide, mais éthiquement vide ?
La réponse est probablement : la majorité. Et cela crée une situation paradoxale. Ces systèmes sont présentés comme des outils neutres, des moteurs de productivité, des assistants bienveillants. Mais ils sont construits sur une fondation de tromperie douce — pas de mensonge explicite, mais une asymétrie d'information si massive entre l'entreprise qui collecte et l'utilisateur qui clique que la notion de consentement devient une fiction.
Ce n'est pas une théorie du complot. C'est de l'ingénierie sociale à l'échelle légale. Et le plus troublant, c'est que même en le sachant maintenant, tu ne peux pas vraiment faire autrement. Le prix d'entrée dans la vie numérique contemporaine, c'est tes données. Refuser de les donner, c'est refuser d'exister dans les espaces où le reste du monde vit.
Or, pour beaucoup, le refus n'existe pas.
Alors, qu'est-ce qu'on fait ?
On commence par nommer ce que c'est. Pas une "politique de confidentialité". Une architecture de capture. Et on pose la question que personne ne veut poser à voix haute : si les règles du jeu avaient été claires dès le départ, aurions-nous accepté de construire ce monde-là ?

Commentaires
Enregistrer un commentaire