La Minute juridique # 3
L’intelligence artificielle s’invite partout : recommandations, diagnostic, justice, sécurité, création de contenus. Elle promet des gains massifs d’efficacité… tout en déplaçant des risques considérables sur nos données, nos droits, nos emplois et même la stabilité démocratique. Derrière les interfaces séduisantes, l’IA repose sur un triptyque simple et brutal : données massives, puissance de calcul, modèles toujours plus complexes. La question n’est plus de savoir si l’IA va s’imposer, mais comment éviter qu’elle ne le fasse au détriment de la vie privée, de l’égalité, de la démocratie et de l’environnement.
Données, carbone et coulisses humaines de l’IA
L’IA commence toujours par la donnée. Données personnelles, données protégées par le droit d’auteur, données annotées : tout y passe. Le RGPD encadre déjà fortement l’usage des données personnelles, avec des principes comme le consentement éclairé, le droit à l’oubli, la minimisation et la limitation de conservation. Mais les attaques sophistiquées (deepfakes, phishing ciblé, empoisonnement de données) montrent que la sécurité n’est jamais acquise. À cela s’ajoute l’usage d’œuvres protégées pour entraîner les modèles : l’affaire Anthropic, poursuivie pour avoir utilisé plus de 7 millions de livres piratés et finalement réglée à hauteur de 1,5 milliard de dollars, illustre les limites de l’usage équitable (fair use) lorsque la matière première est massivement illicite.
Dans l’ombre, un autre maillon reste largement invisibilisé : les annotateurs de données. En Afrique, ce marché représente près de 250 millions de dollars par an, pour des rémunérations allant parfois de 0,01 à 0,25 dollar la tâche, avec des journées pouvant dépasser 20 heures. Exposés à des contenus violents ou sensibles, ces travailleurs essentiels à l’apprentissage supervisé sont encore largement oubliés des régulations, y compris de l’AI Act. Enfin, l’IA a un prix environnemental : en 2024, les datacenters ont consommé environ 415 TWh, soit l’équivalent de la consommation électrique de la France, et les systèmes d’IA représentent déjà près de 20 % de cette énergie, avec une projection à 49 % d’ici la fin de l’année (Richard, 2025). Entre RGPD, droit d’auteur, justice sociale et impact carbone, une IA « responsable » suppose de repenser la chaîne de valeur de bout en bout.
Pouvoir numérique, désinformation et pression sur la démocratie
L’IA amplifie un pouvoir déjà concentré : celui des grandes plateformes qui contrôlent les infrastructures, les données et les interfaces. Les GAFAM ou BATX, en situation quasi monopolistique, utilisent cette position pour peser sur les règles du jeu, notamment par un lobbying massif. En 2023, près de 957 millions de dollars ont été dépensés en lobbying sur l’IA, soit une hausse de 185 % par rapport à 2022 (Field, 2024). Les régulations comme le Digital Markets Act (DMA) cherchent à rééquilibrer le rapport de force en garantissant l’interopérabilité, l’accès aux données et une meilleure concurrence, mais se heurtent à ces stratégies d’influence.
L’IA ne renforce pas seulement le pouvoir des géants, elle démultiplie aussi celui des individus – pour le meilleur et pour le pire. Les outils de génération de texte, d’image ou de vidéo permettent à chacun de produire des contenus toujours plus crédibles à moindre coût. Résultat : une explosion de désinformation, de propagande automatisée et de deepfakes, comme on l’a vu dans le contexte de la guerre en Ukraine ou sur YouTube. Le Digital Services Act (DSA) vise à encadrer ces dérives par plus de transparence et de modération, mais aucune régulation ne peut suffire sans une montée en compétence des citoyens en matière de littératie numérique. La ligne de fracture démocratique se déplace : entre ceux qui maîtrisent les codes de l’IA et ceux qui la subissent.
Quand l’IA décide : transparence, biais et responsabilité
Plus l’IA prend des décisions dans des domaines sensibles, plus la question devient simple et tranchée : qui répond quand ça déraille ? La transparence est une première réponse. Les modèles sont souvent des « boîtes noires », mais l’IA explicable (XAI) développe des outils comme LIME ou DeepLIFT pour relier une décision à ses données et ajuster le modèle. L’AI Act impose d’ailleurs des exigences de transparence et d’explicabilité, notamment pour les systèmes à risque élevé. Reste que ces outils n’abolissent ni les biais ni les dilemmes éthiques, ils les rendent seulement plus visibles.
Les biais algorithmiques, eux, sont bien réels : reconnaissance faciale moins précise pour certains groupes, justice prédictive discriminante comme dans le cas de l’outil COMPAS, décisions de recrutement biaisées, surveillance disproportionnée. Dans la justice, la sécurité, les ressources humaines, la recherche ou l’éducation, l’IA ne fait souvent qu’amplifier des inégalités préexistantes. Dans les systèmes d’armes autonomes, la question devient radicale : peut-on moralement déléguer à une machine une décision de vie ou de mort, dans un contexte déjà traversé par les risques d’erreur, de biais et de dilution de responsabilité ?
Sur le plan juridique, la notion de gardien – concepteur, opérateur, utilisateur – devient centrale. L’affaire Tesla, où l’entreprise a été reconnue partiellement responsable d’un accident mortel survenu en mode Autopilot, ou celle impliquant ChatGPT, accusé d’avoir fourni des instructions à un adolescent qui s’est suicidé, rappellent qu’aucun acteur ne peut se retrancher derrière la « décision de la machine ». L’AI Act tente de structurer cette responsabilité partagée, mais les systèmes autonomes poussent le droit à ses limites, notamment si l’on envisage demain une IA plus forte, plus autonome, voire dotée d’un statut juridique propre.
Pour conclure, l’éthique de l’IA n’est pas un supplément d’âme, c’est une condition de survie juridique, sociale, environnementale et démocratique. Entre RGPD, AI Act, DMA, DSA et initiatives comme le « Climate Neutral Data Centre Pact », les briques d’un encadrement plus robuste se mettent en place, mais elles restent fragmentées, marquées par des visions du monde divergentes : innovation et liberté aux États-Unis, vie privée et régulation en Europe, sécurité et contrôle en Chine.
La gouvernance responsable de l’IA devra conjuguer plusieurs exigences : intégrer des principes éthiques dès la conception, associer chercheurs, entreprises, États et société civile, protéger les travailleurs invisibles de la chaîne de valeur, limiter l’empreinte carbone, renforcer la transparence et la responsabilité, élever le niveau de littératie numérique. Enfin, à l’heure où certains annoncent une singularité autour de 2045 (Kurzweil), la question n’est plus seulement de savoir ce que l’IA peut faire, mais ce que nous sommes prêts à accepter qu’elle fasse à notre place. C’est ce débat, profondément politique, qui déterminera si l’IA restera un outil au service de l’humain ou deviendra un pouvoir que nous ne maîtrisons plus.