← Retour
actualité

Clearview AI : quand l’intelligence artificielle dépasse les limites du « public »

Cédrix · 05/11/2025

En 2019, une start-up américaine du nom de Clearview AI fait irruption dans le monde de la reconnaissance faciale. Son idée paraît révolutionnaire : créer une base de données géante pour identifier n’importe qui à partir d’une simple photo. Pour nourrir son intelligence artificielle, l’entreprise collecte des milliards d’images publiques issues de plateformes comme Facebook, LinkedIn, Twitter ou encore YouTube. Chaque cliché, chaque visage devient une donnée utile à l’algorithme — mais sans que les personnes concernées n’en soient informées, ni qu’elles aient donné leur consentement.

Rapidement, l’ampleur du projet suscite la controverse. Des journalistes révèlent les pratiques de Clearview, et les autorités de protection des données s’en emparent. En France, la CNIL sanctionne l’entreprise pour traitement illégal de données biométriques. Le régulateur britannique fait de même, imposant des amendes et interdisant l’usage de ces données en Europe. Ce scandale devient un symbole : il montre que même à l’ère numérique, la vie privée reste un droit fondamental, et que la technologie ne peut pas s’affranchir des règles éthiques et juridiques.

L’affaire Clearview soulève un enjeu majeur : la frontière entre le contenu public et le contenu libre d’usage. Ce n’est pas parce qu’une image est visible en ligne qu’elle peut être exploitée pour entraîner une IA. Cette logique s’applique aussi à des plateformes comme LinkedIn : les informations qu’on y partage publiquement ne deviennent pas pour autant un matériau libre pour les algorithmes.

Ainsi, Clearview AI incarne à la fois la puissance et le danger de l’intelligence artificielle : un outil capable du meilleur, mais aussi du pire, lorsqu’il franchit la ligne fragile entre innovation et intrusion.

Commentaires

Aucun commentaire pour l'instant. Soyez le premier !

Laisser un commentaire
Un code de vérification sera envoyé à votre adresse email.