Aller au contenu de la page
La grande conversation 2022

Quelle souveraineté numérique ? Cloud, IA, Data

Le numérique est au cœur de la rivalité entre les États-Unis et la Chine ainsi que de la volonté d’affirmer une souveraineté européenne. Mais que signifie « souveraineté », quand on parle du numérique ? L’enjeu est-il seulement celui d’une politique industrielle, complétée par des mesures de régulation ? Répondant aux notes de Thomas Reynaud et de Laurent Daudet, déjà publiées par la Grande Conversation, le texte de Philippe Lemoine entend approfondir l’analyse et esquisser un chemin pour conjuguer cloud et diversité, datas et liberté, IA et spécificité humaine.

Publié le 
Cette publication fait partie de La grande conversation 2022

Deux articles ont engagé un débat, au sein de la Grande Conversation, sur la souveraineté numérique et sur les trois vecteurs d’innovation imbriqués que sont le Cloud, le Big Data et l’Intelligence Artificielle. Il s’agit de la note de Thomas Reynaud « Pour une souveraineté européenne sur le cloud et les données »[1], et de celle de Laurent Daudet, publiée en réponse et intitulée : « Cloud souverain : l’Intelligence Artificielle au cœur des enjeux »[2].

Prenant appui sur le constat incontestable d’un retard important de la France et de l’Europe, les deux tribunes en appellent à une politique industrielle vigoureuse. Alors que 94% des administrations et des entreprises américaines ont migré vers le cloud, ce n’est le cas, pour le moment, que de 42% d’entre elles en Europe. Les marges de manœuvre existent mais il faut impérativement se dépêcher car, lorsque les entreprises européennes se convertissent au cloud, elles viennent, encore plus qu’aux États-Unis, consacrer la suprématie des deux plus gros acteurs : Amazon Web Services et Microsoft-Azure. L’enjeu de souveraineté est majeur comme l’illustre le Cloud Act américain de 2018 qui donne la possibilité à l’Administration américaine d’accéder à cette ressource stratégique que sont les données traitées par ces acteurs, pour le compte de tiers. La réponse ne saurait tenir seulement dans la localisation géographique des centres de données ou, plus généralement, dans les textes juridiques. Il faut impérativement faire émerger des opérateurs industriels indépendants, la question séparant les deux notes précitées étant de savoir jusqu’où doit aller cette indépendance. Dans le contrôle du capital ? Dans l’origine des différentes couches de logiciel, mobilisées dans une offre cloud ? Dans les matériels eux-mêmes permettant de traiter les données, et notamment dans les composants graphiques qui assurent l’analyse rapide de masses gigantesques de données ?

Des initiatives sont en cours. À celles que passent en revue les articles déjà cités, s’ajoute désormais Numspot, annoncé depuis lors et regroupant Docaposte (groupe La Poste), la Banque des Territoires (Caisse des Dépôts), Bouygues Télécoms et Dassault Systèmes. Mais quelles doivent être les priorités de ces initiatives et quel est le contenu de ce que l’on veut défendre quand on parle de « souveraineté numérique » ?  Sur ce plan et malgré la question spécifique soulevée sur les cartes graphiques par le deuxième article, les deux notes laissent les lecteurs sur leur faim. Certes, l’évocation des valeurs numériques européennes est sympathique et on ne peut que souscrire au thème d’un double refus : refus de l’hyper-capitalisme de surveillance à l’américaine et refus de la dictature numérique à la chinoise. Mais comment s’y prendre et quel chemin suivre, quand on souhaite justement en passer par une forte accélération dans le déploiement du Cloud, du Big Data et de l’Intelligence Artificielle ? C’est le fond de l’affaire et il faudrait y consacrer plus de temps et plus de place que nous ne pouvons le faire ici. 

Dans le cadre du présent article, nous nous contenterons d’ouvrir quelques pistes. Elles peuvent paraître théoriques et destinées aux seuls spécialistes. Elles invitent en fait à approfondir l’analyse des enjeux et à choisir des leviers d’action adaptés. L’objectif est de préciser les contours d’une souveraineté numérique européenne et cela passe selon nous par les trois propositions suivantes :

  • Cloud : assurer la souveraineté par des architectures hybrides plutôt que par le 100% de souche.
  • Data : attendre du droit qu’il fasse plus que protéger les données et qu’il accompagne le renouvellement d’une pensée de la liberté.
  • Intelligence Artificielle : ne pas se contenter de réguler, oser affirmer la Loi.

Cloud : priorité aux architectures hybrides 

Un très grand nombre d’entreprises et d’administrations ont de plus en plus le sentiment que leur informatique est dans une impasse. Lourde et coûteuse, elle est loin d’incarner la promesse de transformation et de fluidité qui avait accompagné les premiers pas de l’informatique de gestion, dans les années 1960. Comparés aux outils numériques fiables et conviviaux qui se sont déployés à grande échelle depuis une vingtaine d’années et qu’utilisent quotidiennement plus de trois milliards de terriens, les systèmes d’information d’entreprise paraissent souvent antédiluviens. D’où la tentation de se débarrasser de cette greffe informatique qui est loin d’avoir toujours été une réussite.

Il y a deux ou trois décennies, la solution paraissait relever de l’infogérance : il s’agissait d’externaliser les services informatiques internes et d’en confier la gestion aux géants de l’époque, IBM en tête. Mais cette approche pré-numérique ne prenait pas encore appui sur toute une panoplie d’outils qu’Internet a, depuis, largement déployés : un réseau à grande vitesse facilement accessible, des capacités de stockage scalables, des procédures de back-up et de cyber-sécurité éprouvées, des dispositifs permettant de facturer simplement, selon l’usage effectif des ressources. Prenant appui sur ces avancées, une solution plus efficace que l’externalisation des informaticiens a pris forme dans les années 2000 : l’externalisation des données, des ordinateurs et des applications. Marketée par les principaux GAFAM (Amazon, Microsoft et, dans une moindre mesure, Google), cette offre revient à « plateformiser » tous les ingrédients d’un système d’information : données (PaaS : Platform as a Service), logiciel (SaaS : Software as a Service), infrastructures (IaaS : Infrastructure as a Service), etc. C’est cette offre que l’on appelle « l’informatique dans les nuages », (« cloud computing »).

Le fossé qui s’était creusé entre l’informatique de gestion et le numérique se trouve ainsi comblé de manière radicale : l’univers digital absorbe purement et simplement le monde informatique. Est-ce une évolution positive et durable ? L’expérience des utilisateurs est souvent heureuse et tout se passe comme si la conversion au cloud leur ôtait une épine du pied. Mais, à un niveau global, cela se traduit par une hyper-concentration du pouvoir. Là où l’informatique de gestion mettait en œuvre la technologie de façon relativement décentralisée, le marché français du cloud était, en 2021, à 71% aux mains de trois GAFAM : Amazon, 46% ; Microsoft, 17%, Google, 8 %. Telle qu’elle est posée aujourd’hui, la question de la souveraineté numérique provient de ce seul constat. Peut-on laisser près des trois-quarts des systèmes d’information des entreprises et des administrations aux mains de quelques acteurs de droit américain, alors même que la législation des États-Unis évolue pour donner aux juges et aux services de renseignement de ce pays, un droit d’accès et de contrôle sur l’ensemble de ces ressources ? Pour les systèmes d’information les plus critiques au moins, il est urgent d’organiser une vraie alternative et de leur permettre d’être abrités par une entreprise française ou européenne, par un cloud souverain.

Si l’on prend un peu de hauteur, l’enjeu va pourtant encore au-delà. Tim Berners-Lee, l’inventeur du Web, voit l’hyper-concentration qui s’est opérée dans l’Internet grand public comme une catastrophe et comme un contresens[3]. Avec toutes les parties prenantes du Web Sémantique, il œuvre pour que l’avenir du Net échappe au méga-pouvoir des infomédiaires et retrouve le sens d’un réseau pair-à-pair, intrinsèquement décentralisateur. On peut toutefois faire l’hypothèse que l’extrême centralisation actuelle de l’Internet grand public ne serait qu’une maladie infantile, contrepartie du besoin temporaire de simplicité et d’homogénéité des interfaces que suscite l’apprentissage rapide des outils numériques par des milliards d’utilisateurs non formés. Il en va différemment de l’héritage que constituent les systèmes d’information professionnels. On estime que près de 30 millions de développeurs travaillent aujourd’hui dans le monde, chez des utilisateurs, entreprises ou administrations. Accompagner ces développeurs, les former dans un contexte d’évolution technologique soutenue, est, à coup sûr, un défi managérial. Mais y renoncer, bifurquer vers l’hypercentralisation et confier le pilotage de tous les systèmes d’information à une poignée d’entreprises, n’est-ce pas une forme d’écocide, de massacre annoncé de la diversité et de la richesse de notre patrimoine informationnel ?

La question est d’autant moins théorique que les géants du Cloud conçoivent leur développement comme un immense processus de collecte qui permet de nourrir, en masse et en variétés de données, l’apprentissage glouton de machines, en route vers une Intelligence Artificielle performante. L’enjeu de la souveraineté dépasse ainsi de très loin la seule question de la nationalité des opérateurs. Dans un écosystème informationnel dont la composante humaine serait en grande part effacée, où serait la diversité, où seraient les choix, où serait l’objet même d’une souveraineté ? Le roi serait nu. Pour que la notion de souveraineté garde un objet et un sens, il faut sortir de la logique du cloud intégral, de l’illusion d’une solution pure, 100% de souche. La priorité d’un opérateur de cloud souverain, aspirant à conforter réellement la souveraineté d’un État, devrait être de développer des architectures métissées que l’on regroupe sous le terme de « cloud hybride ».  

On peut distinguer trois niveaux d’ambition, dans une telle stratégie de cloud hybride. Le premier correspond à une adaptation au réflexe de prudence de certains utilisateurs qui ne veulent pas mettre tous leurs œufs dans le même panier : une partie des applications sera hébergée chez tel opérateur, tandis qu’une autre sera confiée à un concurrent ou, plus fréquemment, telle application sera opérée sur un « cloud public », bénéficiant de tous les bénéfices de la mutualisation des coûts, tandis que telle autre sera sur un « cloud privé », c’est-à-dire une infrastructure privative mais bénéficiant de tous les outils logiciels d’un des grands « hyperscalers ». Dans tous les cas, ces stratégies de « cloud réparti » supposent des passerelles et des systèmes de monitoring sophistiqués, typiques du cloud hybride, pour assurer le dialogue entre les différentes applications. Pour un nouveau venu, comme l’est un opérateur de cloud souverain, disposer de cette offre est une condition d’accès au marché.

L’ambition plus élevée repose sur un raisonnement d’architecte en systèmes d’information. Autant un hébergeur peut avoir intérêt à stocker de considérables volumes d’information, autant l’intérêt des utilisateurs est généralement de filtrer et de qualifier à la source les flux de données, afin de lutter contre l’« infobésité ». Répondre au besoin de qualification précoce de la pertinence des datas est l’objet du « edge computing » que l’on peut traduire comme une informatisation dans l’œuf ou du « mesh computing » qui vise à sélectionner les données à la source, sur un réseau local maillé, avant de les remonter vers un entrepôt central ou vers un « data lake » abrités sur le cloud. Les grands acteurs du cloud intègrent des solutions pour s’adapter à ce type d’exigences. Un opérateur de cloud souverain devrait, encore plus, disposer d’une offre performante dans ce domaine, afin d’encourager les utilisateurs à adopter de telles architectures qui préservent à terme leur contrôle sur les données et, par là-même, leur propre souveraineté.

Le troisième et dernier niveau est celui d’un cloud incapable, à lui seul, de déclencher l’orage. Structurer une telle offre supposerait d’investir pour améliorer encore les couches logicielles servant de passerelle pour le cloud hybride ou le edge computing. De grands progrès ont été faits, dans le passé, en abandonnant tout classement signifiant dans la gestion des mémoires, au profit de rangements aléatoires, visant uniquement à optimiser des temps d’accès. Cela a été le cas de la notion de « random access memories » pour l’unité centrale des ordinateurs ou des systèmes de gestion de bases de données relationnelles (SGBD) pour le stockage sur les unités de disques. Rien n’empêcherait de s’inspirer de telles approches en matière de cloud et de disrupter ainsi les principaux opérateurs. Une partie des données serait hébergée chez l’un, une autre partie chez un autre, une autre encore chez un troisième, de telle sorte qu’aucun d’entre eux ne détiendrait un ensemble signifiant mais que la reconstitution instantanée du puzzle serait en permanence à la main de l’utilisateur, aidé d’outils de « bridge » hyper-performants. Ce type de cloud hybride transformerait l’offre des grands hyperscalers en une simple commodité et serait un véritable vecteur de différenciation et de souveraineté.

Data : pas seulement protéger, mais repenser la liberté !

À côté de la politique industrielle, le combat pour la souveraineté numérique repose sur le cadre juridique. De fait, dans ce domaine, l’Europe a, sans conteste, su marquer des points. Dès 1995, elle adoptait une directive sur la protection des données personnelles qui incitait les États membres à se doter de législations harmonisées autour de quelques principes communs permettant, dès lors qu’ils sont respectés, la libre circulation des informations au-delà des frontières. En 2016, l’Union européenne est passée à un stade supérieur d’intégration, en adoptant le Règlement Général à la Protection des Données (RGPD). Dans un univers où la croissance rapide d’Internet pouvait faire croire à l’émergence d’un cyberespace sans règles, l’Europe est ainsi devenue le centre de la régulation mondiale.

Cette règlementation n’a pas été sans effets. Dès lors qu’ils veulent pouvoir échanger des données avec des acteurs opérant sur le grand marché européen, les autres États du monde sont obligés d’adopter des législations cohérentes avec les principes dont s’est dotée l’Europe. Aujourd’hui, sur les 193 États membres de l’ONU, 106 se sont dotés de lois plus ou moins inspirées par l’Europe[4]. Certes, les États-Unis ne se sont pas encore donné un cadre global au niveau fédéral mais certains États majeurs comme la Californie ont adopté des règles décalquées du RGPD. Le 20 août 2021, la Chine elle-même adoptait une législation sur la protection des données qui comporte un énorme trou puisqu’elle ne s’applique pas à la puissance publique (!) mais qui aligne les entreprises chinoises sur le cadre imaginé en Europe.

Un tel succès ne va pas sans critiques. Pour les uns, la législation européenne n’est qu’un tigre de papier qui n’empêche rien car l’interconnexion mondiale des ordinateurs, reliés entre eux par des satellites et des réseaux à haute vitesse, rend tout contrôle illusoire. Il faudrait que les gendarmes soient dotés de moyens phénoménaux pour courir aussi vite que les voleurs de l’ère digitale ! D’autres critiquent au contraire l’excès de contrôle et le climat bureaucratique entretenu par la législation, incompatible avec l’esprit d’entreprise. Si l’Europe n’a pas su engendrer des grands acteurs comme Google ou Facebook, ce serait à cause des excès de la législation ! À l’heure de l’Intelligence Artificielle, il serait suicidaire d’empêcher d’accumuler les données dont se nourrit le « machine learning ».

Lorsque l’on travaille et étudie réellement les situations, ces critiques ne sont pas pertinentes. Pour ne retenir qu’un seul exemple, les sanctions prises contre Meta-Facebook par plusieurs autorités nationales, dont la CNIL, sont maintenant relayées au plan européen global, avec des amendes de plusieurs centaines de millions d’euros qui amènent ce géant des GAFAM à devoir reconsidérer en profondeur son business model fondé sur un gigantesque traitement de données personnelles sans consentement explicite des personnes concernées. À l’inverse, il n’existe aucun exemple solide d’innovation qui aurait été étouffée dans l’œuf par la législation. Ayant été directement témoin de ces sujets, j’ai pu constater combien certains acteurs utilisaient le prétexte de la contrainte juridique pour expliquer leur retard ou leur échec, lesquels tenaient à de toutes autres causes, alors même que les marges nécessaires leur avaient été accordées pour expérimenter et traiter en masse des données.

Si une critique est à faire, ce n’est pas sur ces registres. Le problème est plutôt celui de la relative faiblesse du cadre conceptuel autour duquel s’est organisé le consensus européen. Comme son nom l’indique, le RGPD répond à l’objectif de « protéger les données ». Ce concept d’origine allemande (« Datenschutz ») est présent depuis des décennies dans le paysage juridique, puisqu’il caractérisait la toute première règlementation, celle du Land de Hesse, en 1970, avant d’être reprise par la législation suédoise de 1973. Mais que signifiait protéger les données ? Aujourd’hui, à l’heure des hackers et du cyberterrorisme, on voit bien l’enjeu procédural et technologique que constitue la protection des données contre des incursions malveillantes. Mais l’enjeu juridique qui était visé dès l’origine allait bien au-delà : il ne s’agissait pas seulement d’empêcher des intrus, il s’agissait d’encadrer l’action des administrations et des entreprises qui collectaient des données. Au fond, l’enjeu n’était pas de protéger les données, mais de protéger les personnes ! Mais les protéger de quoi et au nom de quels principes ? C’est là que le débat européen n’est pas allé au fond des choses car il était sans doute plus facile, à l’époque, de trouver un consensus dans un clair-obscur que de chercher à éclairer la scène en grand.

On faisait appel à une autre notion, d’origine américaine celle-là, quand il s’agissait d’expliciter le concept mystérieux de protection des données : l’enjeu de vie privée, de « privacy ». Bien que 1984, le roman prémonitoire de Georges Orwell[5], soit encore beaucoup plus ancien, tout le monde s’évertuait, au début des années 1970, à abaisser le niveau d’enjeu et à ne surtout pas parler des principes généraux régissant la vie sociale et donc, précisément, des questions de souveraineté ! L’enjeu était présenté comme une affaire qui concernait les individus et leurs secrets plus ou moins vaudevillesques et non comme une étape majeure dans l’histoire des démocraties. Chacun se souvenait du bras de fer que la France avait engagé avec les États-Unis en 1966, lorsque le Général de Gaulle avait lancé le Plan Calcul. Toute législation sur l’informatique était accusée par les Américains de relever d’une démarche protectionniste. Il fallait faire profil bas et ne légiférer qu’au nom de principes intentionnellement limités.

C’est la législation française qui, la première, a pourtant clairement nommé l’enjeu : celui des droits de l’homme et de la Liberté. Dénommée « Informatique et Libertés », la loi de 1978 pose en principe, dès son article 1er, que « l’informatique doit être au service de chaque citoyen… Elle ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques ». Vrai contrepouvoir, l’Autorité indépendante chargée de veiller à l’application de la loi s’appelle la Commission Nationale de l’Informatique et des Libertés (CNIL). Le choix de la clarté avait été fait par le législateur mais il était sans doute un peu tôt, dans les années 2000, pour que ce vocabulaire s’impose dans les textes européens. Depuis lors, il y a eu aux États-Unis le Patriot Act, voté en urgence le 25 Octobre 2001, moins de deux mois après l’attentat du World Trade Center, et autorisant les services de sécurité, avant même le Cloud Act de 2018, à accéder aux données informatiques des particuliers et des entreprises, sans autorisation préalable et sans information des utilisateurs. En Chine, on a assisté à un déploiement impressionnant de caméras de vidéosurveillance, dotées de systèmes de reconnaissance faciale et alimentant un vaste système de notation des comportements et du « crédit social »[6].

Au-delà de la protection des données et de la « privacy », chacun voit mieux aujourd’hui que l’on est face à des enjeux majeurs qui concernent précisément l’identité humaine, les droits de l’homme et les libertés. Si la France et l’Europe entendent réellement affirmer leur souveraineté, elles doivent avoir le courage de défendre et d’affirmer leurs valeurs, en osant appeler un chat un chat. Ce combat de clarification conceptuelle est d’autant plus nécessaire que nous sommes à un moment où il devient indispensable de se saisir des nouveaux enjeux pour repenser la Liberté[7]. Tout un cycle se termine en effet où la pensée de la liberté avait été reformulée en termes strictement économiques : cela avait été le travail intellectuel mené après-guerre par Friedrich Hayek et la Société du Mont-Pèlerin, qui avait débouché, trente ans plus tard, sur la vague des gouvernements néo-libéraux de Margaret Thatcher et Ronald Reagan. Aujourd’hui, la vague est retombée et la pensée de la Liberté est désormais malheureusement à terre, étouffée par l’alliance improbable de l’ultra-libéralisme économique et de l’ultra-conservatisme sociétal.

Si l’on ne se saisit pas des enjeux du futur (numérique, écologie, genre, diversité…) pour reformuler une vision vivante de la Liberté, nous glisserons vers une acceptation molle de l’oppression sous ses différentes formes. On entend déjà trop souvent que les défis à affronter exigeraient l’efficacité des régimes autoritaires…  Affirmer nos valeurs et notre souveraineté impose de ne pas seulement protéger les données. Il faut prendre appui sur ces enjeux pour élargir l’horizon et repenser la Liberté.

IA : oser affirmer la loi plutôt que reguler !

Le 31 Mars 2022, l’Assemblée Générale du Conseil d’État a adopté une étude réalisée à la demande du Premier Ministre et intitulée « Intelligence Artificielle : construire la confiance, servir la performance »[8]. Destinée à préparer la France à la mise en place d’un règlement européen sur l’IA, cette étude plaidait pour une puissante accélération dans le déploiement des systèmes d’IA publique. La condition d’acceptabilité de cette politique volontariste reposait, selon le Conseil d’État, sur la définition et la mise en œuvre d’un cadre de confiance. Sept principes généraux étaient énoncés : la primauté humaine ; la performance ; l’équité et la non-discrimination ; la transparence ; la sûreté (cybersécurité) ; la soutenabilité environnementale ; l’autonomie stratégique.

L’objet n’est pas ici d’entrer dans l’examen détaillé des sept principes en fonction desquels s’organiserait une « régulation » du déploiement de l’IA confiée à une Autorité de contrôle qui serait une « CNIL profondément transformée ». Celle-ci deviendrait « un véritable régulateur, soucieux de conjuguer le développement de notre pays par le soutien à l’innovation et le respect des droits fondamentaux des personnes concernées, et un facilitateur de l’innovation technologique au service de la société, soucieux de créer un environnement favorable à l’innovation responsable… Un changement d’appellation marquerait symboliquement cette transformation »[9]. On notera au passage que le terme « liberté » est à peine mentionné et qu’il ne figure en rien dans la liste des sept principes généraux que doit respecter le déploiement de l’Intelligence Artificielle ! Au moment où il faudrait aller de l’avant dans la clarification conceptuelle, le rapport invite à une nette régression…

Le terme « régression » mériterait d’ailleurs d’être entendu ici dans son sens psychanalytique, tant le projet d’estomper la logique de la Loi au profit d’une vague régulation est tout sauf innocent quand il s’agit d’Intelligence Artificielle. De manière très claire et pédagogique, le rapport du Conseil d’État consacre une première partie terminologique à préciser ce qu’il faut entendre par IA, en s’attardant sur le relatif échec de l’IA « symbolique » et sur les récents progrès de l’IA grâce à une toute autre approche, dite « connexionniste ». De quoi s’agit-il ? Au tout départ, il y a le célèbre article d’Alan Turing, « Machines de calcul et intelligence » (Mind, octobre 1950). Turing y développe l’idée que oui, les machines peuvent penser et, dans certains cas, peuvent mieux penser que les humains. Les pionniers (Walter Pitts, Warren McCulloch, Marvin Minsky) illustrent ce pronostic en organisant des réseaux d’algorithmes qui entendent fonctionner comme un cerveau humain parfaitement logique. Cette approche « symbolique » a été prise pour cible par un courant de la recherche, la théorie des automates : en substance, celle-ci démontre que si on entend considérer les ordinateurs (les « machines de Turing ») et les humains comme étant les uns et les autres des automates, ils ne feraient certainement pas partie de la même classe d’automates. Des opérations de pensée comme la traduction d’une langue dans une autre, par exemple, ne sont pas accessibles aux machines de cette manière car elles ne sont pas formalisables sous forme d’un corpus de règles, regroupé dans un algorithme. Des théorèmes sur les langages formels et les langages naturels l’établissent, comme ceux du mathématicien Marcel-Paul Schützenberger et du linguiste Noam Chomsky.

De fait, cette critique épistémologique des fondements même de l’Intelligence Artificielle s’est révélée exacte. Pour contourner ces limites, une idée fut de renoncer à la formalisation d’un cheminement logique et de se contenter de collecter les savoir-faire empiriques qui permettent aux humains de résoudre un problème : ce fut la tentative des « systèmes experts » qui, malgré des crédits importants, fit également long feu. À la fin du XXe siècle, l’Intelligence Artificielle était dans une impasse et l’on parle souvent de l’« hiver » qu’a connu cette jeune discipline. C’est par une toute autre approche que l’IA a rebondi, depuis un peu plus de deux décennies. Le ressort a été une branche des mathématiques, le calcul vectoriel. On peut le caractériser comme une sorte d’algébrisation de la géométrie : dans un espace à N dimensions, le calcul vectoriel permet de mesurer des proximités. Parmi la masse phénoménale de données que charrie Internet, la nouvelle IA, dite « connexionniste », a trouvé un terrain de jeu particulièrement adapté : le traitement automatique des images. C’est ce que l’on appelle le « machine learning » : en examinant des milliards d’images, l’ordinateur va détecter les constantes, les anomalies et les proximités. Dans le domaine de la cartographie, du renseignement militaire, de l’imagerie médicale, une Intelligence Artificielle nouvelle a ainsi pris naissance, capable de repérer des micro-variations ou des micro-émergences qui vont servir à établir rapidement un diagnostic sûr.

Le fait culturel le plus saisissant est que cette approche a réussi à se déployer dans des domaines qui semblent sans rapport avec l’image. Une accélération très forte de la seconde vague de l’IA est en fait venue de procédures permettant de transformer un texte en une image. C’est ce que font les logiciels de Word Embedding, comme Word2Vec développé par Google. En calculant la proximité statistique des mots, ces logiciels permettent de prédire quel est le mot qui va suivre tel autre, ce qui ressemble au fait de maîtriser le sens. Pour les moteurs de recherche, il s’agissait au départ d’un élément décisif pour éviter les « silences » excessifs dans la réponse à une interrogation. Par exemple, si quelqu’un cherche un fast-food vegan dans telle ou telle ville, un moteur performant ne peut pas se contenter d’indiquer les seuls établissements qui auraient utilisé les termes « fast-food » et « vegan » dans leur définition. Il faut également pouvoir donner l’adresse d’établissements qui n’y font pas référence, mais qui parlent de « sandwich » et de « sans viande » ! Le renouveau de l’IA est venu de ce type de logiciels. Dès lors que Google et consorts maitrisaient ces successions, ces bifurcations ou ces substitutions de mots, un boulevard s’ouvrait en effet à eux pour développer des agents conversationnels.

Au cœur de la vague actuelle de l’IA, on trouve ainsi une immense régression du symbolique vers le traitement de l’image, vers l’imaginaire. En termes technologiques, cela explique l’importance de l’enjeu des cartes graphiques, souligné dans la note de Laurent Daudet. En termes culturels, anthropologiques et psychanalytiques, cela débouche sur des interrogations assez fondamentales, compte tenu de la distinction majeure établie par Jacques Lacan entre l’ordre du symbolique et celui de l’imaginaire. Sans avoir connu les développements récents de l’IA connexionniste, le grand mathématicien Marcel-Paul Schützenberger caractérisait l’IA comme un être hybride dont l’avancée relevait directement de la société du spectacle[10]. Il disséquait la manière dont l’IA savait faire rêver les gestionnaires d’appels d’offres, en faisant miroiter les perspectives exactes que ceux-ci fantasmaient de financer. Le spécialiste de l’IA Jean-Michel Truong a développé cette intuition il y a vingt ans, dans le livre Totalement inhumaine[11]. La thèse de cet essai est que l’IA croît et s’auto-reproduit comme un être autonome, en combinant des « items » et des « mèmes » : morceaux de logiciel, les items se démultiplient et s’organisent de façon toujours plus sophistiquée ; images obsédantes colonisant le psychisme des décideurs, les mèmes induisent des raisonnements qui déclencheront les crédits dont l’IA a besoin pour perfectionner les items et nourrir sa propre croissance.

Citer ces textes de Schützenberger et de Truong a l’avantage de remonter le temps et de montrer que l’IA baigne aujourd’hui dans l’image parce qu’elle est née de l’image. Il ne faudrait pour autant pas croire que cet imaginaire-spectacle serait une vieille chose, parfaitement dépassée au stade de l’imaginaire-outil. Le rapport de Cédric Villani, « Donner un sens à l’intelligence Artificielle », date de mars 2018[12]. De manière classique, chaque partie du rapport articule constats, analyses et propositions au gouvernement. Mais, ce qui est plus original, chaque partie est complétée d’un texte qui se veut littéraire et qui est imprimé sur un fond bleu, avec le même titre pour chacun de ces encadrés conclusifs : « Dans l’imaginaire ». Certains de ces onglets ont une dimension positive et utopique tandis que d’autres sont clairement dystopiques et peuvent paraître effrayants. En quelque sorte, peu importe ! Rêve ou cauchemar, il faudrait que l’IA parasite les esprits humains pour pouvoir prospérer.

Kant disait que les Lumières correspondent au moment où l’humanité accède à sa majorité. Il est bon de s’en souvenir et d’éviter que l’IA soit le moment où le peuple souverain retomberait en enfance. Jouer avec les dangers de l’IA pour en déduire qu’il faut en faire un sujet de régulation de haut niveau, cela risque, dans ce contexte, de n’être qu’une ruse supplémentaire qui consacre un Roi Imaginaire. Nous nous séparons nettement du rapport publié par le Conseil d’État. Si l’on aspire réellement à une souveraineté numérique, il faut rompre cet entrelacs de l’imaginaire et affirmer le rôle prépondérant du symbolique. Les sociétés humaines ont un instrument pour exprimer leur volonté et leur souveraineté : la Loi. Qu’il s’agisse de lois nouvelles ou de lois existantes, la souveraineté numérique passe par la reconstruction du symbolique. Il faut oser affirmer la Loi.   


[1] Thomas Raynaud, « Pour une souveraineté européenne sur le cloud et les données », 15 novembre 2022.

[2] Laurent Daudet, « Cloud souverain : l’Intelligence Artificielle au cœur des enjeux », 28 novembre 2022.

[3] « Tim Berners-Lee n’est pas très content de la tournure qu’a pris le World Wide Web », Clubic, 20 janvier 2022

[4] Jeanne Saliou, « 1970–2021 : la protection des données essaime le monde », 18.10.2021, LINC (Laboratoire d’Innovation Numérique de la CNIL)

[5] George Orwell, 1984, Gallimard, 1950

[6] Testé progressivement depuis 2018, le système de crédit social chinois vise à attribuer des notes aux personnes et aux entreprises, en fonction de la surveillance de leurs comportements. Un citoyen qu’une caméra a filmé alors qu’elle traversait hors des clous peut ainsi perdre des points et se trouver par exemple limité dans son droit à voyager en train. Inspiré du « credit scoring » américain, ce système global a été vivement critiqué et fait l’objet de divers rectifications et tentatives de recentrage.

[7] Ouvrage collectif sous la direction de Philippe Lemoine, « Repenser la Liberté. En hommage à Éric Barchechath », Descartes & Cie, 2022.

[8] Conseil d’État, « S’engager dans l’Intelligence Artificielle pour un meilleur service public », 30 Août 2022

[9] Écrit en gras dans le rapport, page 202.

[10] Marcel-Paul Schützenberger et Maurice Gross, « On prétend que… » et « Compléments sur le traitement automatique des langues » in Les enjeux culturels de l’informatisation, ouvrage collectif sous la direction de Françoise Gallouedec-Genuys et Philippe Lemoine, La Documentation Française, 1980 .

[11] Jean-Michel Truong, Totalement inhumaine, Les Empêcheurs de Penser en Rond, 2001.

[12] Cédric Villani, « Donner un sens à l’Intelligence Artificielle : pour une stratégie nationale et européenne », 28 mars 2018.

Site Internet fabriqué avec  et  éco-conçu pour diminuer son empreinte environnementale.
Angle Web, Écoconception de site Internet en Savoie