My best Coaching

Accueil / Actualité / « AI Act » ou quand l’Europe tente de réguler le pouvoir algorithmique pour garder la main sur sa souveraineté numérique
« AI Act » ou quand l’Europe tente de réguler le pouvoir algorithmique pour garder la main sur sa souveraineté numérique

« AI Act » ou quand l’Europe tente de réguler le pouvoir algorithmique pour garder la main sur sa souveraineté numérique

L’adoption de l’AI Act marque un tournant historique dans notre histoire numérique si tant est qu’elle existe : pour la première fois, un cadre légal tente d’anticiper les conséquences sociales, économiques, organisationnelles, éthiques et géopolitiques de l’intelligence artificielle.

Il ne s’agit plus seulement de protéger nos données comme avec le RGPD, mais de réguler le pouvoir décisionnel de nos machines, leur impact sur nos droits fondamentaux et la manière dont elles redistribuent les rapports de force entre les États, nos entreprises et les individus.

Contrairement à ce que l’on croit, l’ »AI Act » n’est pas un texte « technique » réservé aux informaticiens ou aux juristes. Il redéfinit la manière dont nous recrutons, soignons, évaluons, produisons, surveillons, licencions, enseignons ou gouvernons.

Il fabrique aussi , à mon sens , un nouveau droit du travail, un nouveau droit de la responsabilité et un nouveau régime de souveraineté numérique ,car pour la première fois, l’Europe ne se contenterait pas de protéger son marché , elle essaierait d’ imposer sa vision de l’IA au monde.

La logique choisie par l’U.E repose sur une hiérarchie des risques : interdiction pure et simple des usages jugés incompatibles avec les droits fondamentaux comme le scoring social, régulation stricte des usages dits « à haut risque » : recrutement, santé, gestion des salariés, infrastructures critiques, ainsi que les obligations de transparence pour les systèmes à risque limité , à savoir les chatbots, deepfakes, etc.

Cette approche oblige désormais les organisations à documenter, justifier, auditer et tracer leurs systèmes d’IA , donc transforme profondément la gestion interne des données, la gouvernance, la conformité et même le rôle de nos managers.

Mais c’est au moment où l’ « AI Act » affirme cette nouvelle souveraineté normative que se révèle une tension majeure :

Les grandes plateformes et infrastructures d’IA sont aujourd’hui largement américaines, donc juridiquement exposées pour ne pas dire soumises au Cloud Act, qui autorise les autorités américaines  à exiger et à obtenir l’accès aux données, y compris lorsqu’elles sont stockées ou traitées en Europe.

Ce face-à-face entre AI Act (Europe = régulation de l’usage) et Cloud Act (USA = accès aux données) illustre une bataille féroce mais silencieuse : celle du contrôle des systèmes, mais surtout du contrôle de l’information .

Ainsi, l’AI Act n’est pas seulement une loi sur l’intelligence artificielle : c’est une stratégie de puissance. Elle affirme que le pouvoir algorithmique ne doit ni échapper au politique, ni être laissé aux seules logiques commerciales ou militaires.

Elle oppose au modèle américain de « puissance par captation et extraterritorialité » un modèle européen de « puissance par régulation et responsabilité ».

Deux visions du numérique s’affrontent : l’une fondée sur l’accès aux données, l’autre sur la protection des droits.

Ce choc géopolitique aura des conséquences directes pour les entreprises. Une organisation européenne utilisant un fournisseur américain d’IA peut se retrouver prise entre deux lois contradictoires .

En effet , l’AI Act peut l’obliger à garantir la confidentialité et la gouvernance de ses données, tandis que le Cloud Act peut exiger qu’elles soient accessibles à une autorité étrangère.

Le dilemme n’est plus théorique : il concerne nos logiciels RH, nos plateformes de santé, nos outils de scoring bancaire, nos LLM utilisés en interne, nos solutions de cybersécurité… et pose donc une question radicale :

Qui contrôle réellement les systèmes décisionnels qui nous gouvernent ?

C’est ici je pense , que le débat quitte le terrain juridique pour se positionner sur les terrains organisationnel, managérial, psychologique et social.

Dans les services RH, par exemple, les systèmes de présélection automatique de CV sont désormais classés « high-risk » : ils devront prouver l’absence de discrimination, fournir une traçabilité des données, être audités et pouvoir être contestés par un candidat.

Cela signifie que le manager ne peut plus se réfugier derrière la machine : sa responsabilité humaine redevient centrale. L’intelligence artificielle ne supprime pas le pouvoir, elle le « reconfigure ».

Les neurosciences nous confirment jour après jour que l’être humain accorde une forte autorité aux décisions perçues comme « objectives » ou « calculées ». Les sociologues du travail affirment que l’automatisation modifie la hiérarchie symbolique dans l’entreprise : on ne conteste plus un supérieur, mais un algorithme.

La philosophie enfin , rappelle que l’opacité algorithmique crée un nouveau type de domination où la personne subit une décision sans en connaître ni la logique ni l’auteur.

L’AI Act cherche précisément à briser ce triangle : opacité, automatisation, irresponsabilité.

Je crois honnêtement que la régulation ne suffira pas à elle seule , si les organisations ne se transforment pas en profondeur.

Car se conformer à l’AI Act ne consiste pas seulement à cocher des cases juridiques : cela suppose de créer des équipes mixtes data-juridique-RH, de concevoir des chartes éthiques opérationnelles, de former managers et dirigeants aux biais algorithmiques, d’anticiper les impacts psychologiques sur les salariés, d’intégrer des procédures d’audit permanent, et surtout de concevoir l’IA comme un outil de renforcement de la décision humaine, et non comme son substitut. Et c’est ce que je propose dans mes nouvelles formations , une nouvelle organisation managériale qui prend en considération ces grands enjeux .

L’AI Act, en réalité, nous oblige à repenser la gouvernance du numérique comme une matière vivante, collective, transdisciplinaire. Il fait entrer dans nos entreprises une nouvelle fonction : celle de la responsabilité algorithmique.

Demain, il y aura un « DPO de l’IA », un compliance officer spécialisé, un référent auditabilité, un médiateur des décisions automatisées.

Le droit change le management ; le management changera la culture ; la culture changera l’organisation. Malak BELLOUT

Au fond, la question que pose l’AI Act est assez simple et directe :

Que devient la dignité humaine dans un monde où les décisions sont produites par des systèmes d’IA ? L’Europe répondrait : elle devient un objet de droit? Le marché répondrait quant à lui : un paramètre d’optimisation ?

Pour La géopolitique ce serait : Un enjeu de puissance.

Désormais le choix vous appartient : ignorer, subir ou ANTICIPER