En 2022, Microsoft dévoile GitHub Copilot, un outil révolutionnaire : une intelligence artificielle capable d’aider les programmeurs en générant du code automatiquement. Derrière cette prouesse technologique, un secret de fabrication : Copilot a été entraîné sur des millions de lignes de code public, hébergées sur GitHub, la plateforme de partage de projets informatiques appartenant… à Microsoft.
Très vite, l’enthousiasme laisse place à la colère. Des milliers de développeurs réalisent que leur travail a servi à nourrir une machine commerciale, sans leur consentement ni la moindre compensation. Sur les forums et les réseaux, le mot circule : “extraction de travail gratuit”. Ce qui était autrefois perçu comme un espace de collaboration ouverte se transforme en champ de bataille juridique et éthique.
Aux États-Unis, une action collective est lancée contre Microsoft et OpenAI. Les plaignants accusent les géants de la tech de violer les droits d’auteur en utilisant du code sous licence open source pour former leur IA. L’affaire devient un symbole : jusqu’où peut-on aller dans la collecte des données publiques pour nourrir les intelligences artificielles ?
Le débat dépasse vite le monde du code. Sur LinkedIn, certains s’interrogent : et si nos textes, nos idées, nos posts publics devenaient, eux aussi, la matière première des IA linguistiques ? Après tout, les mots que nous publions en ligne sont aux modèles de langage ce que le code open source était à Copilot : une ressource abondante, gratuite, mais pas nécessairement libre de droit.
Ainsi, l’histoire de GitHub Copilot n’est pas seulement celle d’une innovation technique — c’est le récit d’un nouvel âge de la création, où chaque ligne, chaque phrase partagée sur le web peut devenir une brique d’intelligence… parfois à notre insu.
Commentaires
Aucun commentaire pour l'instant. Soyez le premier !
Laisser un commentaire