Dans cette nouvelle phase du capitalisme numérique que nous vivons, la captation de l’attention est amplifiée pour permettre au marché de mieux nous manipuler. Vous vous rappelez peut-être ce que disait en 2004 Patrick Lelay, alors PDG du groupe TF1 :
Ce que nous vendons à Coca-Cola, c’est du temps de cerveau humain disponible.
Le numérique et les GAFAM dans un sens plus large permettent d’exploiter l’attention sous d’autres formes, qui guident et contrôlent nos comportements au profit d’une data économie, dont l’idéologie est inspirée par les libertariens aux États-Unis. Quelle surprise donc de trouver Elon Musk, adepte du courant libertarien, avec des centaines d’experts appelant à un moratoire sur l’intelligence artificielle (Le Monde du 29 mars 2023). Une surprise certes, même si certains ont vu dans la demande d’Elon Musk l’intention de refaire son retard publicitaire dans la « société du spectacle », cela est surtout une déclaration d’un pompier-pyromane. En 2017, il avait aussi mis en garde contre les robots tueurs… avant peut-être d’en fabriquer lui-même !
Une pause pour sauver l’humanité
Le développement rapide de ChatGpt a provoqué des réactions pour le moins inattendues d’industriels du secteur ; selon eux, cette technologie menacerait l’humanité. C’est dans ce contexte que s’est ouvert un débat sur la régulation. Avant d’examiner ce point sur la régulation, prenons le temps d’examiner ChatGpt qui utilise l’intelligence artificielle.
Chat GPT
Le 30 novembre 2022, la société OpenAI lance un nouveau logiciel, ChatGPT. Il s’agit d’un agent conversationnel, c’est-à-dire un programme informatique qui simule une conversation avec un humain. Il génère des réponses aux questions qui lui sont posées, traduit des textes… L’évolution qu’offre un agent conversationnel comme ChatGPT est de pouvoir générer un texte sur n’importe quel sujet, de la poésie ou des images comme le logiciel MidJourney (mi-parcours), célèbre logiciel qui permet de générer des photos.
Certains logiciels, qui fonctionnent avec l’intelligence artificielle, sont capables déjà de créer de fausses photographies ou de faire un montage très perfectionné. L’IA générative est capable de produire des images ou des textes avec une requête en langage courant.
Loi sur l’IA de l’UE : première réglementation de l’intelligence artificielle
L’Union européenne travaille depuis deux ans sur l’IA Act. L’apparition dans l’espace public de ChatGpt et des autres IA génératives de contenus avait rendu les premiers travaux obsolètes.
Quelques amendements plus tard, un bon millier, et lourd de 722 pages, le projet semble plus complet. Son objectif est de permettre l’innovation en garantissant la sécurité et les droits des utilisateurs.
L’UE a l’intention de classer les usages dits « à risques ». Ces applications de l’IA jugées « à risque » concernent l’éducation, les ressources humaines, le maintien de l’ordre ou la gestion des migrations. Le texte précise que les entreprises qui développent ces IA doivent garantir le maintien d’un contrôle humain, la mise en place d’une documentation technique et d’un système de gestion de risque. Chaque pays membre de l’UE aura son propre organe de contrôle. Aucune autre obligation ne sera imposée aux applications n’étant pas considérées comme à risque.
Quand sera mis en place l’IA act ?
Le vote des députés européens est une première étape avant la confirmation plénière de la commission du résultat de ce premier accord. Ensuite, s’ouvrira une période de négociation avec les États membres de l’UE avant d’aboutir à la rédaction du texte final. Margrethe Vestager, vice-présidente de la commission européenne, a fait part à la presse de sa volonté de ne pas perdre de temps et espère avoir une première réunion de négociation politique avant l’été. Mais le règlement n’entrera pas en application avant 2026, dans le meilleur des cas.
Examinons les grands axes du projet (source Parlement européen). L’Union européenne a choisi de faire une réglementation selon le risque que représente l’intelligence artificielle. Ces risques sont classés de « risque inacceptable » à « risque limité ».
Risque inacceptable
Les systèmes d’IA à risque inacceptable sont interdits en raison de leur menace pour les personnes. Ils comprennent :
- Les systèmes de manipulation cognitivo-comportementale de personnes ou de groupes vulnérables spécifiques, tels que des jouets activés par la voix qui encouragent les comportements dangereux chez les enfants.
- Un score social qui classe les personnes en fonction de leur comportement, de leur statut socio-économique ou de leurs caractéristiques personnelles.
- Des systèmes d’identification biométrique en temps réel et à distance, tels que la reconnaissance faciale.
Risque élevé
Les systèmes d’IA à haut risque ont un impact négatif sur la sécurité ou les droits fondamentaux. Ils sont divisés en deux catégories :
- Les systèmes d’IA qui sont utilisés dans des produits relevant de la législation de l’UE sur la sécurité des produits.
- Les systèmes d’IA relevant de huit domaines spécifiques, qui devront être enregistrés dans une base de données de l’UE. Ces domaines sont : l’identification biométrique et la catégorisation des personnes physiques, la gestion et l’exploitation des infrastructures critiques ; l’éducation et la formation professionnelle ; l’emploi, la gestion des travailleurs et l’accès au travail indépendant ; l’accès et la jouissance des services privés essentiels et des services et avantages publics ; les forces de l’ordre ; la gestion de la migration, de l’asile et du contrôle des frontières ; l’aide à l’interprétation juridique et à l’application de la loi.
Tous les systèmes d’IA à haut risque doivent être évalués avant leur mise sur le marché et tout au long de leur cycle de vie.
IA générative
L’IA générative, telle que ChatGPT, doit se conformer aux exigences de transparence suivantes : indiquer que le contenu a été généré par l’IA, concevoir le modèle pour l’empêcher de générer du contenu illégal, publier des résumés des données protégées par le droit d’auteur utilisées pour la formation. Mal placé ?
Risque limité
Les systèmes d’IA à risque limité doivent respecter des exigences de transparence minimales qui permettraient aux utilisateurs de prendre des décisions éclairées. Les utilisateurs doivent être informés lorsqu’ils interagissent avec l’IA, y compris les systèmes d’IA qui génèrent ou manipulent du contenu image, audio ou vidéo (par exemple, les « deepfakes » ou contrefaçons).
Pour résumer en quelques lignes : le projet de réglementation de l’UE sur l’intelligence artificielle vise à promouvoir le développement et l’utilisation d’une IA sûre et respectueuse des droits fondamentaux. Il repose sur une approche fondée sur le risque, qui permet de prendre en compte les différents niveaux de risque liés aux systèmes d’IA.
La France autorise la vidéosurveillance algorithmique aux JO 2024
La France a autorisé l’utilisation de caméras intelligentes pour la surveillance des Jeux Olympiques de Paris 2024. Cette décision, inscrite dans la loi du 12 avril 2023 portant sur les JO, a été vivement critiquée par des organisations de défense des droits humains.
L’article 7 de cette loi autorise la vidéosurveillance assistée par IA, ou algorithmique. La reconnaissance faciale est cependant écartée. Les dispositifs prévus comprennent une analyse en temps réel d’événements définis comme suspects, incluant des comportements tels que des personnes isolées, des mouvements de foule ou des intrusions dans des zones interdites.
Les organisations de défense des droits humains, dont Amnesty International et la Ligue des droits de l’homme, ont demandé le retrait de cet article. Elles craignent que cette technologie ne soit utilisée pour surveiller les personnes et violer leur vie privée.
L’autorisation de la vidéosurveillance algorithmique aux JO 2024 court jusqu’au 31 mars 2025.
Que penser de tout cela ?
La technique n’est pas condamnable en soi, car ce n’est pas en condamnant que l’on progresse, c’est en comprenant la nouvelle réalité. La réalité justement c’est que chaque technique, chaque outil, est un « pharmakon », à la fois poison et remède ou un bouc-émissaire.
En revanche, ce qui est condamnable c’est la manipulation des esprits et la première de ces manipulations, c’est le nom qui a été donnée « d’intelligence artificielle ». Les fantasmes d’Hollywood ne sont pas la réalité.
Il n’y a d’intelligent que le vivant et c’est d’ailleurs, faut-il le rappeler, les hommes qui ont créé ces machines qui apprennent à base de formules mathématiques. Les plus grands spécialistes l’expliquent, comme Luc Julia, l’inventeur de SIRI (1)https://bfbgfgb.r.bh.d.sendibt3.com/tr/cl/JotJM1BWKMSbz-FIHLzw5Kh0_pFh77wz3ERy-JGWc-xczefhHKNwp5Ax0-AOJQdor37Pz9SfS7YMbMhBv_evGQ_VQCyhrW6532cKIO9pqcTQNojux9T1TwKxMUa6pGt_dCsM6XzJ2e6-hQtl8y7PTJ9arbzjPC_fRX-7lr5bFKAsD0Rmcn5T3ntDUZ0n_7RXpwFHORRi4EaaBgOkrgTRLbbmJArt2Rdr007tk4NCiAolsNqIb7xHFa6zqVUjHV5WDMY.
Ces machines ne sont rien sans l’être humain. Elles « apprennent » certes… mais que c’est laborieux ! Une centaine de milliers d’images lui sont nécessaires à reconnaître un chat, alors qu’il en faudra deux ou trois à un enfant de deux ans et demi pour faire le même apprentissage. Et pour que la machine «apprenne», il y a des femmes, des hommes en Asie ou en Afrique, exploités pour des salaires de misère. Nous reviendrons prochainement dans ReSPUBLICA sur ce système d’exploitation international.
Les machines font ce qu’on leur demande : le marteau enfonce le clou, le tourne-disque diffuse de la musique et l’application qui doit traduire, traduit. Des outils souvent mono-tâche lorsque l’homme est capable d’opération plus complexes. Une chose est sûre : les machines calculent très vite, plus vite que nous. En 1640 déjà, Pascal avait amorcé ce processus avec sa célèbre pascaline.
L’outil doit demeurer au service des hommes, n’en déplaise aux capitalistes. Si demain, l’humanité court à sa destruction, cela sera que certains hommes se seront servis de ces machines pour construire les robots tueurs sur lesquels le pompier-pyromane libertarien en chef Elon Musk, nous mettait en garde.
Oui, il va falloir réguler, et d’ailleurs, les syndicats n’ont pas attendu ChatGpt, pour demander au patronat de discuter de la suite de l’instruction des algorithmes, dans les entreprises ou les
ministères.
L’UE est effectivement la première au monde à entamer la mise en place d’une réglementation sur « l’intelligence artificielle » mais le chemin est encore long puisque les négociations avec les États membres commencent à peine. À ce jour, chaque pays en Europe ou ailleurs bricole à sa guise avec « l’intelligence artificielle »… aux risques de piétiner les droits civiques.
Notes de bas de page