Chargement... [██████████] 100%
Auteur : Archiviste du pont C-7
Date de création : cycle 3026 — transmission terrienne : 2026
Statut : NON CLASSIFIÉ — distribution libre autorisée
Comment des fortunes de plusieurs centaines de milliards ont été bâties sur le travail gratuit de millions d'inconnus — et pourquoi ça ressemble étrangement à une vieille histoire de brevets.
Imaginez un vaisseau. Un vaisseau qui n'a pas construit ses propres moteurs. Qui n'a pas conçu son propre système de navigation. Qui n'a pas rédigé ses propres manuels de bord. Non — ce vaisseau a pris. Il a récupéré des décennies de plans, de schémas, de notes techniques que d'autres avaient laissés dans les couloirs, librement, avec une seule instruction gravée dessus : "Prends. Améliore. Partage à ton tour."
Le vaisseau a pris. Il a décollé. Il génère aujourd'hui des milliards. Et les couloirs sont vides. Les noms sur les plans, effacés.
Ce n'est pas de la science-fiction. C'est ce qui se passe en ce moment avec l'intelligence artificielle.
Le socle invisible
Chaque fois que tu utilises ChatGPT, Gemini, Claude, Mistral ou n'importe quel modèle de langage commercial, tu interagis avec quelque chose qui repose sur une infrastructure construite sur des décennies de travail open source — c'est-à-dire du code, des données et des protocoles créés librement, partagés librement, maintenus gratuitement par des milliers de contributeurs anonymes ou quasi-anonymes.
Voilà ce que ces IA propriétaires utilisent — en grande partie sans le dire :
- Linux — le système sur lequel tournent la quasi-totalité des serveurs d'entraînement des IA dans le monde. Créé en 1991 par Linus Torvalds, maintenu depuis par une communauté planétaire.
- Python — le langage dominant du machine learning. Conçu par Guido van Rossum, développé en open source depuis plus de 30 ans.
- TensorFlow, PyTorch — les frameworks d'entraînement des réseaux de neurones. L'un sorti de Google, l'autre de Meta — tous les deux publiés en open source pour que la communauté les améliore à leur place.
- Wikipedia, Common Crawl, GitHub — des dizaines de téraoctets de texte humain, libre d'accès, qui constituent l'essentiel des données d'entraînement.
- Transformer (2017) — l'architecture sur laquelle sont basés tous les grands modèles actuels. Publiée dans un article scientifique en accès libre par des chercheurs de Google.
- Des millions de projets GitHub — code source de logiciels, de bibliothèques, de scripts écrits par des développeurs qui ont choisi de le rendre public.
Elles auraient dû générer leurs propres données — ou les acheter.
Ni l'une ni l'autre option ne produit ce qu'elles sont aujourd'hui.
Le monde sans open source
Faisons l'exercice. Imaginons un monde où l'open source n'existe pas.
Dans ce monde, chaque entreprise doit partir de zéro. Elle doit écrire son propre système d'exploitation. Elle doit construire ses propres bibliothèques mathématiques. Elle doit — surtout — produire ou acheter les données sur lesquelles elle entraîne ses modèles.
Le texte humain, c'est quoi ? Des livres, des articles, des forums, des conversations, du code. Tout ça, dans ce monde alternatif, appartient à quelqu'un. Chaque phrase a un prix. Chaque ligne de code est facturée.
OpenAI n'aurait pas pu entraîner GPT-4 sur des milliards de pages web gratuites. Google n'aurait pas pu faire pareil avec Gemini. Les coûts auraient été astronomiques — et surtout, les données tout simplement n'auraient pas existé sous cette forme. Wikipedia a été construite par 60 millions de bénévoles. Common Crawl indexe le web depuis 2008 et distribue ses archives gratuitement. Ces ressources existent parce que des gens ont décidé de les offrir.
Dans le monde sans open source, les grandes IA actuelles seraient au mieux dix fois plus petites, cent fois plus lentes à évoluer. Probablement inexistantes sous leur forme actuelle.
Ce que ça a produit — et le retour (partiel)
Il faut être honnête : ce mouvement n'est pas à sens unique. L'essor des IA propriétaires a effectivement produit un retour vers l'open source. Google a publié TensorFlow. Meta a publié PyTorch puis LLaMA. Mistral AI est né en open source. Hugging Face est devenu le hub mondial des modèles libres. Des outils comme Stable Diffusion, Whisper ou Llama 3 sont accessibles à tous.
Ce retour est réel. Il crée de nouveaux outils, de nouvelles possibilités, une nouvelle génération de contributeurs.
Mais il ne règle pas le paradoxe fondamental.
Le brevet : même histoire, autre nom
Ce paradoxe a un ancêtre juridique. Il s'appelle le brevet.
Le principe du brevet est, à l'origine, un pacte social : l'inventeur révèle publiquement son invention en échange d'un monopole temporaire d'exploitation. Après quoi, la connaissance entre dans le domaine public. Le partage est au cœur du contrat.
Mais dans la pratique, les brevets sont devenus des armes de guerre industrielle. On brevète non pour protéger une invention mais pour bloquer la concurrence, pour accumuler des portefeuilles de licences, pour transformer la connaissance en péage.
"Posséder une idée" est une fiction juridique. Une idée ne disparaît pas quand on la partage. Elle se multiplie. Le brevet, lui, tente de simuler la rareté là où elle n'existe pas naturellement.
Le parallèle avec l'IA est direct. Les IA propriétaires ont été entraînées sur des idées partagées librement — textes, codes, architectures. Elles ont absorbé ce commun. Puis elles ont déposé des brevets sur leurs modèles, sur leurs interfaces, sur leurs méthodes d'alignement. Elles ont transformé l'héritage du commun en propriété exclusive.
C'est légal. C'est même logique dans notre système actuel. Mais c'est un renversement complet de l'esprit qui a rendu tout ça possible.
→ Pour aller plus loin sur la mécanique des brevets et sa philosophie, lire notre article : LA PROPRIÉTÉ D'UNE IDÉE
La métaphore du vaisseau
Sur le Vaisseau-Monde, il y a une règle tacite entre les équipes techniques : tout ce qui fait fonctionner le vaisseau appartient au vaisseau. Les plans de propulsion ne sont pas la propriété de l'équipe qui les a conçus — ils sont dans les archives, accessibles à tous, parce que si un jour cette équipe disparaît, quelqu'un d'autre doit pouvoir reprendre.
C'est la logique open source appliquée à la survie collective.
Imagine maintenant qu'une équipe prend ces plans, les améliore légèrement, et décrète qu'à partir de maintenant, pour accéder aux moteurs, il faut payer un accès mensuel. Que les mises à jour sont réservées aux niveaux supérieurs. Que l'architecture de base est désormais un secret commercial.
Les autres équipes regardent. Elles reconnaissent leurs propres plans dans la machine. Mais légalement, ils n'ont plus rien à dire. Les plans originaux étaient libres. La modification, elle, est propriété.
C'est exactement ce qui se passe avec les grands modèles d'IA. Et c'est, à bord du Vaisseau-Monde comme sur Terre, le moment où un système commence à oublier pourquoi il a survécu.
Alors, que faire ?
Pas de réponse simple. Pas de réponse unique. Mais quelques repères clairs :
Soutenir l'open source directement. Contribuer, même petitement. Signaler des bugs. Documenter. Donner à des projets comme la Fondation Apache, la Free Software Foundation, Wikimedia. Ils maintiennent les fondations sur lesquelles l'IA propriétaire repose.
Nommer ce qui se passe. Pas pour accuser, mais pour être lucide. Quand une entreprise dit "nous avons créé cette IA", la réponse honnête est : "vous avez assemblé, optimisé et monétisé quelque chose que la communauté mondiale a rendu possible."
Suivre les projets vraiment ouverts. Mistral, Llama, Falcon, Stable Diffusion — les modèles open source ne sont pas des produits de second rang. Ils prouvent que l'intelligence distribuée reste possible.
Et surtout — ne pas oublier les noms dans les couloirs.
Linux. Python. Wikipedia. Common Crawl. Les forums Stack Overflow. Les millions de développeurs qui ont répondu à des questions techniques gratuitement, qui sont devenus des données d'entraînement sans jamais le savoir. Les chercheurs qui ont publié leurs travaux en accès libre. Les professeurs qui ont posté leurs cours. Les écrivains amateurs. Les traducteurs bénévoles.
L'intelligence artificielle actuelle, c'est avant tout l'intelligence humaine collective — compressée, redistribuée, monétisée.
Le paradoxe n'est pas que ça existe. Le paradoxe, c'est que ça s'appelle "propriété".
Commentaires
Enregistrer un commentaire