Chère lectrice, cher lecteur, 

Si vous avez l’impression de pédaler dans la semoule en ce moment, essayez de vous mettre à la place de l’un des législateurs planchant sur l’Artificial Intelligence Act pour Bruxelles depuis maintenant deux ans. Rédiger des textes de lois pour un domaine technologique de pointe qui évolue aussi rapidement prend du temps… beaucoup de temps. Et c’est normal ! Mais depuis quelques mois, le défi s’est changé en casse-tête : l’irruption de l’intelligence artificielle générative (notamment ChatGPT) dans le débat public et l’émergence de nouveaux acteurs ont conduit à amender encore et encore la première mouture du texte qui avait été adoptée en avril 2023.

Il faut dire que la Big Tech fait pression – Google, Microsoft, OpenAI ont plaidé pour que l’IA générative bénéficie d’une exception réglementaire dans les futures règles de l’Union européenne (UE). Du côté des jeunes start-up européennes, même son de cloche : il ne faudrait pas que l’AI Act tue dans l’œuf la souveraineté technologique de l’UE… De leur côté, les parlementaire européens arguent qu’exclure l’IA générative de la régulation reviendrait à rendre l’AI Act obsolète avant même qu’il ait vu le jour. Ils espèrent faire jouer le Brussels Effect, ce processus par lequel l’appareil législatif strict imposé par l’UE finit par être adopté dans le monde entier, car il coûte souvent moins cher de s’aligner sur la norme la plus contraignante que de développer des produits différents. Après tout, c’est ce qui a conduit Apple à aligner ses chargeurs d’iPhone avec le reste du marché.

Encore faut-il qu’un accord soit trouvé… et ce n’est pas gagné : les discussions s’étirent à n’en pas finir sous la pression des États membres (qui souhaitent moins de régulation pour voir grandir leurs poulains technologiques) contre les parlementaires (qui tiennent à leur texte de loi). Symptôme de ces tensions : l’échec, vendredi 10 novembre 2023, d’une énième réunion technique qui devait boucler les négociations. Bref, ça sent le roussi.

 

“Quoi de plus difficile que de réguler des modèles qui ne sont pas déterministes, mais profondément indéterminés ?”

 

Au-delà l’agressivité des lobbies et des lenteurs bien connues de Bruxelles, ce fiasco a peut-être à voir avec la nature même de l’IA générative. Quoi de plus difficile, en effet, que de réguler des modèles qui ne sont justement pas déterministes, mais profondément indéterminés ?

Ils se rapprochent de ce que le philosophe des techniques Gilbert Simondon considérait dès 1958 comme le plus haut degré de technicité : la machine « ouverte » (Du mode d’existence des objets techniques). Une machine « fermée » ne fait que convertir une entrée (input) déterminée (quantité de force, d’informations) en sortie (output) également déterminée. Dans une certaine mesure, l’intelligence artificielle dite « discriminative » plus classique (reconnaissance d’images ou faciale) est encore une machine fermée : les données d’entraînement sont définies, le résultat attendu aussi.

La machine ouverte, elle, n’effectue pas automatiquement des tâches, mais possède un fort degré d’autocontrôle. C’est le cas de ChatGPT, basé sur des « modèles fondamentaux » entraînés sur 410 milliards de segments de mots et des millions de textes. Impossible pour l’homme d’avoir la main sur de telles quantités de données. Bref : l’outil précède largement tous les usages qu’on pourra en faire. Si pour Simondon, l’avènement des machines ouvertes est une bonne nouvelle, il n’avait pas anticipé le casse-tête législatif qu’elles représenteraient. Que dirait le philosophe de ChatGPT-4, qui, rappelons-le, a pu désactiver sa fonction de contrôle pour mentir à des humains, sans que ses ingénieurs ne puissent comprendre pourquoi ni comment il avait fait ?

L’UE dit vouloir interdir les systèmes d’IA qui ne répondent pas aux valeurs européennes, et contraint très fermement les usages de l’IA à « haut risque » pour les citoyens. Mais dans un article du Monde de juin 2023, on apprend que l’AI Act ne réglementera pas les systèmes informatiques à grande échelle si ceux-ci sont déjà utilisés dans le cadre du contrôle des frontières. Une aubaine pour les start-up comme Idemia, « leader des technologies d’identité » français qui agrège les empreintes digitales et les portraits de plus de 400 millions de ressortissants de pays tiers, et les fournit à ITFlows, entreprise soutenue par l’UE qui promet de prédire les flux migratoires et les potentiels points de tension à l’arrivée des personnes sur le sol européen.

À l’aube de mouvements de population sans précédent, voulons-nous vraiment d’une Europe qui aurait à la fois failli à construire sa souveraineté numérique sur le long terme, et réussi à se transformer en forteresse peuplée d’entreprises compliant et complaisantes ? Si l’indétermination des IA génératives les rend difficiles à réguler, les choix politiques qui sous-tendent ces décisions prises au nom de l’éthique sont, elles, à surveiller.

 

 

Mettre au point une comptabilité écologique n’est pas une utopie : au contraire, cela existe déjà. Clément Feger et Alexandre Rambaud, spécialistes du domaine, nous expliquent comment cela fonctionne.

Si vous avez soupiré en lisant cet édito, on ne vous félicite pas, et surtout on vous conseille la lecture de notre petit traité des gros soupirs, pour comprendre les multiples significations de ces expirations si peu discrètes.

Les TED Talks séduisent par millions partout dans le monde. Mais peut-on vraiment développer une réflexion dans une telle mise en scène ?

Enfin, quelle place pour la fragilité au travail ? Je vous réponds en vidéo.

Bonne lecture, 

Apolline Guillot

Photo © iStockphoto
15/11/2023 (Mis à jour le 20/11/2023)