Débat

Innovation numérique : l’Europe est-elle dépassée ?

Innovation numérique : l’Europe est-elle dépassée ?

Quelles initiatives l’Europe doit-elle prendre pour ne pas se laisser déborder par l’innovation numérique et, plus encore, pour préserver nos valeurs et nos capacités de choix ? La rapidité des innovations risque de prendre de vitesse des insitutions communautaires dépendantes d’un système de décision complexe. Quel domaine privilégier : cloud, intelligence artificielle, données ? Plusieurs regards permettent ici de mieux identifier les domaines prioritaires et les types d’intervention utiles.

1
Publié le 15 novembre 2022

Pour une souveraineté européenne sur le Cloud et les données

La guerre en Ukraine, les tensions avec la Chine ont brutalement fait prendre conscience aux Européens que l’économie numérique ne relevait pas seulement de la politique commerciale mais soulevait des enjeux de puissance, de souveraineté et d’autonomie stratégique. Dans cette économie, la question du Cloud européen et de la réglementation qu’on lui applique, est devenue cruciale. Il est urgent que la Commission européenne élabore une politique de souveraineté cohérente et efficace. Cet article propose quelques pistes de réflexion. L’Europe a besoin dans ce domaine d’un « Buy European Act », miroir du « Buy American Act », qui structure la politique américaine depuis longtemps.

Écouter cet article
00:00 / 00:00

Qu’est-ce que le Cloud ?

Le terme « Cloud » est trompeur. Il donne l’impression que quelque chose d’immatériel flotte au-dessus de nos têtes. Une sorte de nuage de données qui nous suivrait un peu partout. C’est poétique, certes, mais très loin de la réalité.

Le Cloud, c’est à la fois une réalité matérielle et logicielle, qui consiste en une immense mise en commun de capacités informatiques. Pour le dire trivialement : le Cloud, c’est utiliser pour soi l’ordinateur… de quelqu’un d’autre. Ou si l’on veut être plus technique : c’est la mutualisation des capacités de calcul de serveurs répartis dans des data centers, eux-mêmes interconnectés par des réseaux Télécoms. Quand on parle de Cloud, on parle donc d’une accumulation de couches technologiques, aussi bien des câbles, des satellites, des centres de données, des serveurs, que des briques logicielles. Ce sont d’ailleurs ces briques logicielles qui créent aujourd’hui l’essentiel de l’intelligence, les économies d’échelle et les gains de productivité incroyables associés au Cloud.

Le Cloud s’est peu à peu imposé comme une « mise en données » vertigineuse de notre monde. Derrière ce terme se cachent nombre de gestes de notre quotidien :  la consultation de son solde bancaire sur son smartphone, le stockage de ses photos ou la recherche de son itinéraire. Mais le Cloud est aussi devenu déterminant pour les entreprises et les administrations notamment dans le traitement d’informations sensibles comme les données de santé des Français, qui devraient être gérées par Microsoft au travers du « Data Health Club ». Le Cloud va devenir aussi de plus en plus stratégique pour la bonne conduite de certaines fonctions régaliennes de l’Etat et s’imposer comme une technologie non seulement civile mais aussi militaire. C’est pourquoi l’Europe doit être capable de proposer des alternatives industrielles face à la montée en puissance des fournisseurs de Cloud  américains ou encore chinois, qui connaissent aujourd’hui la progression la plus rapide à l’échelle mondiale.

Le Cloud est un enjeu de souveraineté pour l’Europe

Nous sommes confrontés à trois menaces :

  •  Une dépendance accrue à des solutions techniques non-européennes,
  •  Une exposition des citoyens et des sociétés européennes à des législations extraterritoriales,
  • La difficulté face à cette situation de dépendance industrielle et réglementaire, de continuer à défendre des valeurs européennes dans la sphère numérique.
Abonnez-vous à notre newsletter

L’Europe dépend – et elle en est en grande partie responsable – de plus en plus d’acteurs comme Amazon Web Services, Microsoft, Google cloud platform, ou encore le chinois Alibaba qui fournissent plus de 75 % des services Cloud en Europe, avec une réelle efficacité. La part de marché de ces quelques acteurs n’a cessé de croître au cours des dernières années, quand celle des Européens n’a, dans le même temps, eu de cesse de baisser. Les Etats-Unis sont les alliés des démocraties européennes, mais certains de nos intérêts économiques sont divergents, nous n’avons pas la même conception de la protection de la vie privée, et même sur les questions stratégiques et de défense, des désaccords peuvent émerger, comme on l’a vu lors de la présidence Trump. 

Les données stockées et traitées par les Etats-Unis ou la Chine sont soumises à des législations non-européennes, motivées par des intérêts de sécurité nationale. Depuis 2015, la Cour de Justice de l’Union Européenne a invalidé de façon répétée les mécanismes mis en place pour permettre le transfert de données vers les Etats-Unis (invalidation du Safe Harbor en 2015, du Privacy Shield en 2020 via l’arrêt Schrems II), estimant que le régime de protection des données personnelles outre-Atlantique n’est pas équivalent aux protections offertes par le droit européen.

Ces législations non-européennes, auxquelles sont assujettis les acteurs dominants sur les marchés du Cloud, s’appliquent en outre sur le sol européen. Citons par exemple le Cloud Act, peut-être le plus emblématique, adopté par l’administration Trump en 2018. Ce texte permet aux autorités américaines, en cas d’enquête criminelle, de saisir, de manière légale et sans aucune procédure préalable, toutes les données qui pourraient « menacer l’ordre public » – une formule pour le moins floue – et seraient opérées par des services de Cloud américains. Cette saisie peut avoir lieu non seulement aux États-Unis, mais aussi à l’étranger, donc sur le sol français et européen, ce qui est beaucoup plus intrusif, et porte atteinte à la souveraineté. Citons encore le FISA (Foreign Intelligence Services Act) : votée en 1978 par le Congrès américain et modifiée en 2008 par le FISA amendment Act : cette législation autorise les administrations américaines à collecter, utiliser les données personnelles détenues par des personnes morales américaines, et permet de cibler spécifiquement, via sa section 702, les citoyens non-Américains, situés en dehors du territoire des Etats-Unis. Cette définition américaine de l’extra-territorialité est classique, et correspond à leur vision de la défense de l’intérêt national, mais elle fait courir un risque majeur à l’intégrité et à la confidentialité des données européennes.

Enfin, la souveraineté porte aussi sur un corpus de valeurs à défendre. A travers le numérique, c’est une vision du monde, de la place de l’Homme, de l’imaginaire, qui se construit. Le numérique a été, depuis vingt ans, la force de transformation la plus puissante de notre société. Ainsi, en acceptant la domination d’un Cloud non-européen, ce sont aussi nos valeurs dans la sphère numérique qui sont menacées. Ces « valeurs européennes numériques », diffèrent très nettement de celles des deux autres superpuissances, Etats-Unis et Chine, en particulier en termes de protection des données, de défense de la sphère privée, de transparence, d’Etat de droit et de séparation des pouvoirs. L’Europe doit continuer à refuser à la fois le capitalisme de surveillance et la dictature numérique.

Les data centers ne suffisent pas

Le Cloud, ce ne sont pas que les infrastructures physiques ! On a trop souvent tendance à croire que, si on a le data center, alors on a les données. C’est une vision simpliste, trop répandue en Europe. Les data centers ne sont pas l’enjeu principal. C’est la maitrise de ce que l’on appelle la « couche logicielle », celle qui permet de rendre intelligibles les données, de les exploiter, qui est au cœur de la bataille. Ce n’est d’ailleurs pas une simple coïncidence si tous les géants des marchés du Cloud – Amazon Web Services, Microsoft et Google – sont d’abord et avant tout des entreprises logicielles.

Dans son rapport Bilan approfondi des dépendances stratégiques de l’Europe, publié en février dernier, la Commission européenne a souligné combien notre continent était dépendant des technologies logicielles Cloud américaines. On pourrait aller jusqu’à dire, en poussant la provocation, qu’il existe en Europe une forme d’acceptation de cette situation, une « servitude volontaire », qui consiste à nous lier les mains, en confiant l’intégralité de nos données à une poignée de plateformes, américaines et chinoises. Dans un monde marqué par l’instabilité géopolitique, ce n’est sûrement pas une voie prudente pour l’avenir. Bien sûr, il ne s’agit pas de se couper du monde et de l’excellence technologique autour de nous – ce serait un non-sens politique, économique et industriel – mais dans un univers ultra-concurrentiel, nous devons pousser notre avantage, valoriser notre industrie Cloud et logicielle. Evitons de nous réveiller dans quelques années, comme c’est le cas aujourd’hui avec l’énergie, en prenant brusquement conscience d’un état complet de dépendance.

La France s’est attaquée au sujet en créant le principe de Cloud de confiance et la certification SecNum Cloud, délivrée par l’ANSSI (Agence Nationale de la Sécurité des Systèmes d’Information)

La qualification SecNumCloud, conduite par l’ANSSI, permet d’apporter, pour certains cas d’usage, des garanties de mise en œuvre de techniques de cybersécurité indispensables. Mais, si cette démarche répond à une vraie inquiétude des entreprises et des administrations, elle ne peut constituer à elle seule une politique industrielle digne de ce nom. Or, ce souci légitime de lutte contre le risque cyber en est venu à structurer une partie de l’écosystème Cloud français avec la mise en place de partenariats entre des fournisseurs américains de logiciels Cloud et des industriels français, en simple position de revendeurs : Microsoft associé à Orange et Capgemini, sous le nom BLEU, ou encore Google épaulé par Thalès, dénommé S3NS. Ces partenariats ont bel et bien été une réponse au label de « Cloud de confiance », développé par le gouvernement français pour parer à une double inquiétude – le risque cyber et la tentative d’immunité face à des législations extraterritoriales.  Ce label, a priori rassurant, et ces partenariats constituent très certainement une réponse nécessaire à court terme pour permettre aux administrations françaises et aux entreprises de continuer à utiliser des solutions extra-européennes mais en aucun cas une réponse suffisante à la hauteur des enjeux à plus long-terme, en matière de volonté d’autonomie. On peut même considérer que le « Cloud de confiance » crée une illusion de souveraineté. Le bon déroulement de ces partenariats sera ainsi tributaire à la fois de l’évolution fluctuante du cadre juridique mais aussi, dans certains cas, du régime de contrôle des exportations aux États-Unis en matière de licences, avec par exemple la réglementation ITAR dans le domaine de l’armement. L’administration américaine, sous Donald Trump, a ainsi instrumentalisé à plusieurs reprises cette clause ITAR pour compliquer l’exportation du Rafale.

L’actualité récente renforce ces inquiétudes : une étude commandée par le ministère de la Justice des Pays Bas interroge sur l’immunité réelle à la portée extraterritoriale du droit américain, des offres qui découlent de ces partenariats. Ainsi, selon ce rapport : « le Cloud Act peut accéder aux données via des sous-traitants/fournisseurs de matériel et de logiciels, de/vers les fournisseurs de Cloud » . Du fait de l’exposition de ces offres au FISA, l’étude pointe aussi le risque accru lié à l’installation de portes dérobées dans les logiciels d’infrastructures Cloud, sans que leur code source ne soit accessible, ou auditable par l’ANSSI.

D’autre part, la conformité avec la jurisprudence européenne (arrêt Schrems II) va de nouveau être au cœur des débats, à la suite de la signature récente par le Président américain Joe Biden d’un Executive Order visant à surmonter les limitations des transferts des données personnelles de l’Union européenne vers les Etats-Unis – dans le respect des arrêts passés de la Cour de justice de l’Union européenne. Ce décret présidentiel américain a pour objet de mieux garantir la « proportionnalité » des dispositifs de surveillance américains, tout en introduisant de véritables voies de recours judiciaire. Il a été négocié avec la Commission européenne, mais cette démarche doit encore être validée par le Parlement européen, alors que certains députés européens critiquent déjà ce texte pour ses insuffisances.

Quelle que soit l’issue des discussions politiques et des recours à venir devant la CJUE, cette séquence souligne de manière saillante à quel point la stabilité de notre cadre juridique européen est dépendante des positions prises en dehors de notre continent.

Un Cloud Européen est-il encore possible ?

Un Cloud européen est non seulement possible, mais terriblement nécessaire. Il n’y a pas de fatalité technologique qui nous condamnerait à n’être que des revendeurs européens de solutions logicielles américaines ou chinoises, car la bataille du Cloud n’est pas perdue ! En réalité, le Cloud européen existe déjà, y compris dans sa dimension logicielle, car l’Europe a pour elle des ingénieurs parmi les mieux formés au monde, des entrepreneurs engagés, des entreprises positionnées sur la couche logicielle comme OVH, Outscale ou Scaleway (filiale du groupe Iliad), extrêmement dynamiques. Ce tissu industriel qui porte le Cloud européen a atteint une maturité permettant de satisfaire plus de 80% des cas d’usage rencontrés. Et contrairement aux écosystèmes américains ou asiatiques, les entreprises européennes du Cloud ont réussi à se développer, sans commande publique massive de l’Etat, ni marchés réservés à leur profit – basant leur croissance sur la seule qualité́ de leurs offres, dans un environnement concurrentiel très difficile face à la domination de quelques acteurs. L’Autorité de la Concurrence s’est d’ailleurs lancée, en France, en 2022, dans une enquête sur le fonctionnement concurrentiel du secteur du « Cloud ». Ses homologues aux Pays-Bas ou encore au Japon ont, plus tôt cette année, aussi pointé un certain nombre de pratiques anticoncurrentielles renforçant le positionnement des acteurs dominants. Cette attention croissante, aux quatre coins du globe, marque une prise de conscience du rôle structurant du Cloud.

La possibilité d’un rattrapage puis d’un rééquilibrage par rapport aux offres américaine et chinoise est donc réaliste. Mais à trois conditions.

D’abord, une plus grande confiance dans l’initiative privée. C’est parce que la NASA et la DARPA ont su faire confiance à Elon Musk qu’il a pu, en quelques années, développer Space X. Une réussite qui devrait nous inspirer, en Europe, pour créer un cercle vertueux, afin de valoriser l’initiative privée et la prise de risque.

La seconde condition, c’est une volonté politique forte, à l’échelle européenne. Si les Etats-Unis sont si puissants sur le Cloud, c’est parce que la commande publique gigantesque – dont on connait les effets d’entrainement – appuyée sur la taille du marché américain a joué un rôle clé dans l’adoption précoce des technologies Cloud. En effet, la stratégie de l’administration américaine concernant les services Cloud a été définie dès 2011 avec Cloud First, soit avec 10 ans d’avance par rapport à la France et la mise en place de la doctrine « Cloud au Centre ».  Et dans cette commande publique, la Défense a évidemment un grand poids. L’adoption de services Cloud fait ainsi partie intégrante de la stratégie de défense nationale et de modernisation numérique du Pentagone avec notamment une commande de 10 milliards d’euros dans le cadre du contrat Jedi.

Il y a également une troisième condition. Chaque grande puissance (Etats-Unis, Chine, Inde, Brésil, Corée du Sud) a mis en place des réglementations en matière de localisation des données. Ces règles souvent liées à des problématiques de sécurité nationale, rendent « compliquée », c’est un euphémisme, une concurrence libre et non-faussée entre acteurs locaux et Européens. Elles structurent de fait des marchés captifs. Seul le marché européen n’est pas protégé. D’où cette situation assez cocasse qui fait que les industriels européens du numérique, bien que privés de débouchés éventuels importants à l’export, subissent, sur ce qui devrait être leur pré-carré, une concurrence étrangère féroce – nourrie à la mamelle de la commande publique locale – sur tous les segments de marché, y compris lorsque des données sensibles ou critiques sont en jeu.

La « bonne nouvelle », c’est que l’Europe, ses entreprises, ses administrations sont en retard dans l’adoption du Cloud : seulement 30% des capacités informatiques et 42% des entreprises européennes ont basculé vers ces solutions contre 94% aux Etats-Unis. Les prochaines années seront donc riches d’opportunités pour les industriels européens qui, malgré un contexte marqué par une forte adversité (pas de forte commande publique, ni de marchés réservés), ont su baser leur croissance sur la seule qualité́ de leurs offres. Collectivement, nous aurions ainsi tout à gagner à graver dans le marbre notre volonté, bien réelle, d’acheter européen, pour entamer un rééquilibrage des dynamiques de marché. Aux Etats-Unis, l’administration Biden s’emploie d’ailleurs à renforcer le Buy American Act, pour y intégrer l’achat de produits liés aux technologies de l’information, autant sur la couche matérielle que logicielle.

Accélérer l’adoption du Cloud et renforcer notre indépendance technologique : tel est le « en même temps » qui doit rythmer l’action collective européenne. A cet égard, on ne peut que regretter les promesses non-tenues de GAIA-X, initiative qui, à son lancement en juin 2020, visait à « garantir la souveraineté, la disponibilité, l’interopérabilité et la portabilité des données » et, « promouvoir la transparence » dans le Cloud en Europe. Deux ans et demi plus tard, l’impact de cette initiative est nul, notamment en raison d’une gouvernance ambiguë qui a rendu l’organisation perméable à l’influence des géants du numérique – à tel point que certains parlent désormais non plus de GAIA-X mais de « GAFAM-X ».

L’Etat peut, et doit, faire preuve de créativité pour favoriser, à travers l’achat public, des offres numériques et des entreprises qui créent de la valeur, de l’emploi en Europe, sont respectueuses des plus hauts standards en matière de protection des données, de réversibilité, d’interopérabilité, comme sur le plan environnemental… En somme, créer une doctrine de l’achat numérique responsable, qui irait bien au-delà des considérations de cybersécurité. La question environnementale doit y occuper une place essentielle. Seul un Cloud européen souverain permettrait de concilier deux exigences : d’un côté, le développement technologique – qui est indispensable – et, de l’autre, la protection de notre planète – qui est vitale. Au cours de la dernière décennie, la consommation énergétique du secteur numérique a augmenté très fortement, représentant désormais entre 6% et 10 % de la consommation mondiale d’électricité, qui est très intense en carbone à l’échelle planétaire. Les data centers et les serveurs qu’ils renferment ont évidemment un poids important dans ces évolutions. Un exemple : à l’horizon 2030, selon la direction régionale et interdépartementale de l’environnement et de l’énergie (DRIEE), les data centers pourraient représenter à eux seuls le quart de l’augmentation des besoins en énergie du Grand Paris, soit 1 000 MW sur un total estimé entre 3 000 et 4000 MW ! Par ailleurs, la fabrication des serveurs qu’ils accueillent a un impact environnemental considérable.

L’industrie des data centers et du Cloud doit donc répondre à ce défi. L’été caniculaire que nous venons de traverser a mis un coup de projecteur sur des pratiques très dispendieuses en matière de consommation d’énergie et d’eau. En Irlande, au Royaume-Uni, au Pays-Bas, en Allemagne, au Luxembourg, la question des data centers s’invite dans le débat citoyen, et politique.

L’Europe compte déjà parmi les acteurs les plus vertueux sur le plan environnemental, à l’échelle mondiale à la fois en termes d’efficacité énergétique mais aussi en termes d’utilisation de l’eau. Si l’on veut que la puissance publique, nationale et européenne, valorise les approches innovantes et fixe des objectifs environnementaux ambitieux à ce secteur industriel, il faut que les acteurs concernés dépendent de leur législation.

Le Cloud a une dimension (géo)politique évidente, et la force de l’autorité publique pour accompagner les acteurs européens reste encore sous-exploitée. Les résistances sur ce sujet demeurent fortes de la part de certains partenaires européens. Le travail de pédagogie sera long, avant d’assister à un « grand soir » de la préférence européenne. 

Emmanuel Macron s’est encore récemment érigé en défenseur de la préférence européenne pour les véhicules électriques. D’autres initiatives sur les semi-conducteurs ou l’hydrogène sont tout en haut de l’agenda politique pour une vraie souveraineté européenne. Toutes ces initiatives ont en commun de s’appuyer sur des solutions Cloud et ne seront véritablement autonomes que si elles reposent sur un Cloud réellement européen. La prise de conscience est en marche. Quelques exemples : des députés européens ont pris position cet été en faveur d’un « Buy European Tech Act », des fournisseurs européens de technologie Cloud se sont organisés au sein d’Euclidia. La tectonique des plaques évolue. Sortons la tête des « nuages » : le Cloud européen est indispensable à la souveraineté de l’Europe.

2
Publié le 25 novembre 2022

Cloud souverain : l’Intelligence Artificielle au coeur des enjeux

Entrepreneur dans le domaine de l’Intelligence Artificielle, l’auteur réagit ici à une précédente note publiée dans La Grande Conversation par Thomas Reynaud (« Pour une souveraineté européenne sur le Cloud et les données », 15 novembre 2022). Il montre l’ampleur des développements autour de l’IA et fait part des besoins industriels liés au Cloud pour réussir à développer des projets de pointe dans ce secteur.

Écouter cet article
00:00 / 00:00

Directeur général d’une startup de très haute technologie dans le monde de l’Intelligence Artificielle (IA), dont le déploiement commercial est principalement porté par les technologies du Cloud, j’ai lu avec grand intérêt la note de Thomas Reynaud « Pour une souveraineté européenne sur le Cloud et les données », parue le 15 Novembre 2022 sur la plateforme La Grande Conversation de Terra Nova. Le constat est difficilement contestable : la dépendance Européenne envers les cloud providers, principalement américains – mais également chinois – s’accentue. Pour grand nombre d’entreprises ou administrations dont la donnée est au coeur des activités, cette dépendance technologique met en cause notre souveraineté dans toutes ses dimensions, pour toutes les raisons listées avec pertinence par Thomas Reynaud. Un cloud européen véritablement souverain s’impose, accompagné d’un Buy European Act

Il m’apparait toutefois important de faire un pas de côté pour se pencher sur les tendances actuelles en traitement de données, afin de réfléchir au positionnement de ce futur cloud dans la chaîne de création de valeur. De fait, l’Intelligence Artificielle a plus évolué dans les 3 dernières années que dans toute la décennie précédente, avec l’apparition de méga-modèles (à plus de cent milliards de paramètres !) que l’on appelle les « Grands Modèles de Langage » (Large Language Models). Incroyablement puissants et versatiles, ces nouvelles IA effectuent de façon stupéfiante une série de tâches complexes sur le texte, comme la rédaction, le résumé, ou l’analyse sémantique. Ils sont maintenant étendus à des interfaces pour la génération à volonté d’images de synthèse d’une précision remarquable, heurtant des secteurs d’industries créatives s’étant crues à l’abri des technologies d’automatisation. Lancées par le modèle GPT-3 d’OpenAI (entreprise californienne massivement financée par Microsoft), des dizaines de startups se créent chaque semaine de par le monde pour exploiter ces modèles dans une grande diversité d’assistants IA, redoutablement efficaces pour une variété toujours plus grande de tâches du monde de l’entreprise, du travailleur indépendant à la multinationale. Et nous n’en sommes qu’au début, avec une accélération proprement vertigineuse de la recherche dans ce domaine – recherche presque entièrement privée, notamment portée par des « GAFAM » en ébullition sur ces sujets -. Chaque semaine voit ainsi la naissance de nouveaux modèles, dont les plus avancés annoncent maintenant la prochaine génération, douée de capacités de planification et de raisonnement. Dès aujourd’hui, ils s’immiscent dans les suites bureautiques de Microsoft et Google – et sont donc susceptibles d’analyser toutes les données qui y transitent. Dans 1 ou 2 ans, il est probable qu’une technologie aussi centrale que les moteurs de recherche tels que nous les connaissons depuis vingt ans aient été remplacée par une nouvelle génération intégrant bien mieux le contexte de notre demande. Il ne s’agit pas de la science-fiction d’un HAL ou d’un Terminator, mais bien des prémisses d’une rupture technologique majeure, où l’IA va, pour le meilleur et pour le pire, bousculer toute la chaine de création de valeur dans des industries technologiques, mais aussi dans les services et les administrations. En d’autres termes, nous sommes au début d’une automatisation des « cols blancs », à tous les niveaux de responsabilité, du stagiaire au PDG. Brace yourselves. 

Cette IA sur stéroïdes démultiplie l’intensité des enjeux mentionnés par Thomas Reynaud : d’une part l’absolue nécessité de mettre en place de meilleures règles de protection de la vie privée – alors que ces modèles ont une capacité accrue d’en croiser les sources -, ensuite un enjeu évidemment stratégique par rapport aux technologies de défense et de renseignement, et enfin des enjeux environnementaux, alors que les capacités de calcul nécessaires pour faire tourner ces méga-modèles sont sans commune mesure avec la génération précédente et qu’il s’agira de scaler l’utilisation quotidienne de tels modèles à l’échelle de milliards d’utilisateurs. 

C’est là où j’apporterais une nuance à l’affirmation de Thomas Reynaud: certes les Data Centers ne suffisent pas, mais dans ce nouveau contexte tout matériel de calcul ne se vaut pas, à l’inverse d’une commodity. Il est au contraire essentiel que la couche physique, les serveurs de calcul eux-mêmes, soient en capacité de faire tourner l’IA la plus puissante. A l’heure actuelle ce matériel a un nom, avec un quasi-monopole de facto des cartes GPU (Graphical Processing Unit) de NVIDIA, dont les modèles les plus puissants sont conçus explicitement pour cet usage, et de fait extrêmement chers et gourmands en énergie. Accorderais-je une importance exagérée à ces processeurs ? Ils sont tellement d’une autre nature que les Etats-Unis ont récemment étendu leur réglementation d’export control spécifiquement sur ces modèles de cartes, maintenant interdits d’export vers notamment la Chine, au même titre donc que des matériels explicitement à usage militaire ou de renseignement. 

Abonnez-vous à notre newsletter

Or, dans l’offre actuelle des cloud providers européens, aucune de ces cartes haut de gamme pourtant disponibles depuis 2 ans – une éternité ! – chez les « Big 3 » (AWS – Amazon -, GCP – Google/Alphabet -, Azure – Microsoft -). Impossible pour une société comme la mienne d’y faire tourner nos modèles – installés donc, pour nos clients, sur un hyperscaler américain extrêmement efficace. L’Etat français a financé – pour un équivalent de plusieurs millions d’euros – l’entrainement du modèle BLOOM open-source sur le super calculateur de recherche « Jean Zay » – effort de recherche communautaire remarquable auquel plus de 500 chercheurs ont contribué -, mais ce modèle à 176 milliards de paramètres, maintenant entraîné, est trop gros pour tourner sur les cloud providers français et véritablement bénéficier à l’écosystème

L’offre actuelle réduite aux serveurs de milieu de gamme se justifie parfaitement dans la logique économique rappelée par Thomas Reynaud des 20/80 : 20% de l’offre pour couvrir 80% des besoins – dans le contexte extrêmement concurrentiel qui est souligné dans sa note. Mais, dans la perspective d’un Cloud souverain européen il serait incompréhensible d’avoir pour stratégie de dupliquer ce modèle tout en évitant les errements de GAIA-X, et de fait exclure les technologies de l’IA les plus avancées, à très forte valeur ajoutée. 

La bonne nouvelle est que cette nécessaire montée en gamme est techniquement parfaitement faisable, car il s’agit avant tout de matériel (« hardware »). Certes, le surcoût d’infrastructure est significatif, mais la demande croissante saura s’ajuster aux prix. C’est également à cette aune que sera jugée la crédibilité d’un positionnement véritablement souverain d’un cloud,  capable de répondre à des usages parmi les plus structurants pour le futur de nos sociétés.

3
Publié le 24 janvier 2023

Quelle souveraineté numérique ? Cloud, IA, Data

Le numérique est au cœur de la rivalité entre les États-Unis et la Chine ainsi que de la volonté d’affirmer une souveraineté européenne. Mais que signifie « souveraineté », quand on parle du numérique ? L’enjeu est-il seulement celui d’une politique industrielle, complétée par des mesures de régulation ? Répondant aux notes de Thomas Reynaud et de Laurent Daudet, déjà publiées par la Grande Conversation, le texte de Philippe Lemoine entend approfondir l’analyse et esquisser un chemin pour conjuguer cloud et diversité, datas et liberté, IA et spécificité humaine.

Écouter cet article
00:00 / 00:00

Deux articles ont engagé un débat, au sein de la Grande Conversation, sur la souveraineté numérique et sur les trois vecteurs d’innovation imbriqués que sont le Cloud, le Big Data et l’Intelligence Artificielle. Il s’agit de la note de Thomas Reynaud « Pour une souveraineté européenne sur le cloud et les données », et de celle de Laurent Daudet, publiée en réponse et intitulée : « Cloud souverain : l’Intelligence Artificielle au cœur des enjeux ».

Prenant appui sur le constat incontestable d’un retard important de la France et de l’Europe, les deux tribunes en appellent à une politique industrielle vigoureuse. Alors que 94% des administrations et des entreprises américaines ont migré vers le cloud, ce n’est le cas, pour le moment, que de 42% d’entre elles en Europe. Les marges de manœuvre existent mais il faut impérativement se dépêcher car, lorsque les entreprises européennes se convertissent au cloud, elles viennent, encore plus qu’aux États-Unis, consacrer la suprématie des deux plus gros acteurs : Amazon Web Services et Microsoft-Azure. L’enjeu de souveraineté est majeur comme l’illustre le Cloud Act américain de 2018 qui donne la possibilité à l’Administration américaine d’accéder à cette ressource stratégique que sont les données traitées par ces acteurs, pour le compte de tiers. La réponse ne saurait tenir seulement dans la localisation géographique des centres de données ou, plus généralement, dans les textes juridiques. Il faut impérativement faire émerger des opérateurs industriels indépendants, la question séparant les deux notes précitées étant de savoir jusqu’où doit aller cette indépendance. Dans le contrôle du capital ? Dans l’origine des différentes couches de logiciel, mobilisées dans une offre cloud ? Dans les matériels eux-mêmes permettant de traiter les données, et notamment dans les composants graphiques qui assurent l’analyse rapide de masses gigantesques de données ?

Des initiatives sont en cours. À celles que passent en revue les articles déjà cités, s’ajoute désormais Numspot, annoncé depuis lors et regroupant Docaposte (groupe La Poste), la Banque des Territoires (Caisse des Dépôts), Bouygues Télécoms et Dassault Systèmes. Mais quelles doivent être les priorités de ces initiatives et quel est le contenu de ce que l’on veut défendre quand on parle de « souveraineté numérique » ?  Sur ce plan et malgré la question spécifique soulevée sur les cartes graphiques par le deuxième article, les deux notes laissent les lecteurs sur leur faim. Certes, l’évocation des valeurs numériques européennes est sympathique et on ne peut que souscrire au thème d’un double refus : refus de l’hyper-capitalisme de surveillance à l’américaine et refus de la dictature numérique à la chinoise. Mais comment s’y prendre et quel chemin suivre, quand on souhaite justement en passer par une forte accélération dans le déploiement du Cloud, du Big Data et de l’Intelligence Artificielle ? C’est le fond de l’affaire et il faudrait y consacrer plus de temps et plus de place que nous ne pouvons le faire ici. 

Dans le cadre du présent article, nous nous contenterons d’ouvrir quelques pistes. Elles peuvent paraître théoriques et destinées aux seuls spécialistes. Elles invitent en fait à approfondir l’analyse des enjeux et à choisir des leviers d’action adaptés. L’objectif est de préciser les contours d’une souveraineté numérique européenne et cela passe selon nous par les trois propositions suivantes :

  • Cloud : assurer la souveraineté par des architectures hybrides plutôt que par le 100% de souche.
  • Data : attendre du droit qu’il fasse plus que protéger les données et qu’il accompagne le renouvellement d’une pensée de la liberté.
  • Intelligence Artificielle : ne pas se contenter de réguler, oser affirmer la Loi.

Cloud : priorité aux architectures hybrides 

Abonnez-vous à notre newsletter

Un très grand nombre d’entreprises et d’administrations ont de plus en plus le sentiment que leur informatique est dans une impasse. Lourde et coûteuse, elle est loin d’incarner la promesse de transformation et de fluidité qui avait accompagné les premiers pas de l’informatique de gestion, dans les années 1960. Comparés aux outils numériques fiables et conviviaux qui se sont déployés à grande échelle depuis une vingtaine d’années et qu’utilisent quotidiennement plus de trois milliards de terriens, les systèmes d’information d’entreprise paraissent souvent antédiluviens. D’où la tentation de se débarrasser de cette greffe informatique qui est loin d’avoir toujours été une réussite.

Il y a deux ou trois décennies, la solution paraissait relever de l’infogérance : il s’agissait d’externaliser les services informatiques internes et d’en confier la gestion aux géants de l’époque, IBM en tête. Mais cette approche pré-numérique ne prenait pas encore appui sur toute une panoplie d’outils qu’Internet a, depuis, largement déployés : un réseau à grande vitesse facilement accessible, des capacités de stockage scalables, des procédures de back-up et de cyber-sécurité éprouvées, des dispositifs permettant de facturer simplement, selon l’usage effectif des ressources. Prenant appui sur ces avancées, une solution plus efficace que l’externalisation des informaticiens a pris forme dans les années 2000 : l’externalisation des données, des ordinateurs et des applications. Marketée par les principaux GAFAM (Amazon, Microsoft et, dans une moindre mesure, Google), cette offre revient à « plateformiser » tous les ingrédients d’un système d’information : données (PaaS : Platform as a Service), logiciel (SaaS : Software as a Service), infrastructures (IaaS : Infrastructure as a Service), etc. C’est cette offre que l’on appelle « l’informatique dans les nuages », (« cloud computing »).

Le fossé qui s’était creusé entre l’informatique de gestion et le numérique se trouve ainsi comblé de manière radicale : l’univers digital absorbe purement et simplement le monde informatique. Est-ce une évolution positive et durable ? L’expérience des utilisateurs est souvent heureuse et tout se passe comme si la conversion au cloud leur ôtait une épine du pied. Mais, à un niveau global, cela se traduit par une hyper-concentration du pouvoir. Là où l’informatique de gestion mettait en œuvre la technologie de façon relativement décentralisée, le marché français du cloud était, en 2021, à 71% aux mains de trois GAFAM : Amazon, 46% ; Microsoft, 17%, Google, 8 %. Telle qu’elle est posée aujourd’hui, la question de la souveraineté numérique provient de ce seul constat. Peut-on laisser près des trois-quarts des systèmes d’information des entreprises et des administrations aux mains de quelques acteurs de droit américain, alors même que la législation des États-Unis évolue pour donner aux juges et aux services de renseignement de ce pays, un droit d’accès et de contrôle sur l’ensemble de ces ressources ? Pour les systèmes d’information les plus critiques au moins, il est urgent d’organiser une vraie alternative et de leur permettre d’être abrités par une entreprise française ou européenne, par un cloud souverain.

Si l’on prend un peu de hauteur, l’enjeu va pourtant encore au-delà. Tim Berners-Lee, l’inventeur du Web, voit l’hyper-concentration qui s’est opérée dans l’Internet grand public comme une catastrophe et comme un contresens. Avec toutes les parties prenantes du Web Sémantique, il œuvre pour que l’avenir du Net échappe au méga-pouvoir des infomédiaires et retrouve le sens d’un réseau pair-à-pair, intrinsèquement décentralisateur. On peut toutefois faire l’hypothèse que l’extrême centralisation actuelle de l’Internet grand public ne serait qu’une maladie infantile, contrepartie du besoin temporaire de simplicité et d’homogénéité des interfaces que suscite l’apprentissage rapide des outils numériques par des milliards d’utilisateurs non formés. Il en va différemment de l’héritage que constituent les systèmes d’information professionnels. On estime que près de 30 millions de développeurs travaillent aujourd’hui dans le monde, chez des utilisateurs, entreprises ou administrations. Accompagner ces développeurs, les former dans un contexte d’évolution technologique soutenue, est, à coup sûr, un défi managérial. Mais y renoncer, bifurquer vers l’hypercentralisation et confier le pilotage de tous les systèmes d’information à une poignée d’entreprises, n’est-ce pas une forme d’écocide, de massacre annoncé de la diversité et de la richesse de notre patrimoine informationnel ?

La question est d’autant moins théorique que les géants du Cloud conçoivent leur développement comme un immense processus de collecte qui permet de nourrir, en masse et en variétés de données, l’apprentissage glouton de machines, en route vers une Intelligence Artificielle performante. L’enjeu de la souveraineté dépasse ainsi de très loin la seule question de la nationalité des opérateurs. Dans un écosystème informationnel dont la composante humaine serait en grande part effacée, où serait la diversité, où seraient les choix, où serait l’objet même d’une souveraineté ? Le roi serait nu. Pour que la notion de souveraineté garde un objet et un sens, il faut sortir de la logique du cloud intégral, de l’illusion d’une solution pure, 100% de souche. La priorité d’un opérateur de cloud souverain, aspirant à conforter réellement la souveraineté d’un État, devrait être de développer des architectures métissées que l’on regroupe sous le terme de « cloud hybride ».  

On peut distinguer trois niveaux d’ambition, dans une telle stratégie de cloud hybride. Le premier correspond à une adaptation au réflexe de prudence de certains utilisateurs qui ne veulent pas mettre tous leurs œufs dans le même panier : une partie des applications sera hébergée chez tel opérateur, tandis qu’une autre sera confiée à un concurrent ou, plus fréquemment, telle application sera opérée sur un « cloud public », bénéficiant de tous les bénéfices de la mutualisation des coûts, tandis que telle autre sera sur un « cloud privé », c’est-à-dire une infrastructure privative mais bénéficiant de tous les outils logiciels d’un des grands « hyperscalers ». Dans tous les cas, ces stratégies de « cloud réparti » supposent des passerelles et des systèmes de monitoring sophistiqués, typiques du cloud hybride, pour assurer le dialogue entre les différentes applications. Pour un nouveau venu, comme l’est un opérateur de cloud souverain, disposer de cette offre est une condition d’accès au marché.

L’ambition plus élevée repose sur un raisonnement d’architecte en systèmes d’information. Autant un hébergeur peut avoir intérêt à stocker de considérables volumes d’information, autant l’intérêt des utilisateurs est généralement de filtrer et de qualifier à la source les flux de données, afin de lutter contre l’« infobésité ». Répondre au besoin de qualification précoce de la pertinence des datas est l’objet du « edge computing » que l’on peut traduire comme une informatisation dans l’œuf ou du « mesh computing » qui vise à sélectionner les données à la source, sur un réseau local maillé, avant de les remonter vers un entrepôt central ou vers un « data lake » abrités sur le cloud. Les grands acteurs du cloud intègrent des solutions pour s’adapter à ce type d’exigences. Un opérateur de cloud souverain devrait, encore plus, disposer d’une offre performante dans ce domaine, afin d’encourager les utilisateurs à adopter de telles architectures qui préservent à terme leur contrôle sur les données et, par là-même, leur propre souveraineté.

Le troisième et dernier niveau est celui d’un cloud incapable, à lui seul, de déclencher l’orage. Structurer une telle offre supposerait d’investir pour améliorer encore les couches logicielles servant de passerelle pour le cloud hybride ou le edge computing. De grands progrès ont été faits, dans le passé, en abandonnant tout classement signifiant dans la gestion des mémoires, au profit de rangements aléatoires, visant uniquement à optimiser des temps d’accès. Cela a été le cas de la notion de « random access memories » pour l’unité centrale des ordinateurs ou des systèmes de gestion de bases de données relationnelles (SGBD) pour le stockage sur les unités de disques. Rien n’empêcherait de s’inspirer de telles approches en matière de cloud et de disrupter ainsi les principaux opérateurs. Une partie des données serait hébergée chez l’un, une autre partie chez un autre, une autre encore chez un troisième, de telle sorte qu’aucun d’entre eux ne détiendrait un ensemble signifiant mais que la reconstitution instantanée du puzzle serait en permanence à la main de l’utilisateur, aidé d’outils de « bridge » hyper-performants. Ce type de cloud hybride transformerait l’offre des grands hyperscalers en une simple commodité et serait un véritable vecteur de différenciation et de souveraineté.

Data : pas seulement protéger, mais repenser la liberté !

À côté de la politique industrielle, le combat pour la souveraineté numérique repose sur le cadre juridique. De fait, dans ce domaine, l’Europe a, sans conteste, su marquer des points.Dès 1995, elle adoptait une directive sur la protection des données personnelles qui incitait les États membres à se doter de législations harmonisées autour de quelques principes communs permettant, dès lors qu’ils sont respectés, la libre circulation des informations au-delà des frontières. En 2016, l’Union européenne est passée à un stade supérieur d’intégration, en adoptant le Règlement Général à la Protection des Données (RGPD). Dans un univers où la croissance rapide d’Internet pouvait faire croire à l’émergence d’un cyberespace sans règles, l’Europe est ainsi devenue le centre de la régulation mondiale.

Cette règlementation n’a pas été sans effets. Dès lors qu’ils veulent pouvoir échanger des données avec des acteurs opérant sur le grand marché européen, les autres États du monde sont obligés d’adopter des législations cohérentes avec les principes dont s’est dotée l’Europe. Aujourd’hui, sur les 193 États membres de l’ONU, 106 se sont dotés de lois plus ou moins inspirées par l’Europe. Certes, les États-Unis ne se sont pas encore donné un cadre global au niveau fédéral mais certains États majeurs comme la Californie ont adopté des règles décalquées du RGPD. Le 20 août 2021, la Chine elle-même adoptait une législation sur la protection des données qui comporte un énorme trou puisqu’elle ne s’applique pas à la puissance publique (!) mais qui aligne les entreprises chinoises sur le cadre imaginé en Europe.

Un tel succès ne va pas sans critiques. Pour les uns, la législation européenne n’est qu’un tigre de papier qui n’empêche rien car l’interconnexion mondiale des ordinateurs, reliés entre eux par des satellites et des réseaux à haute vitesse, rend tout contrôle illusoire. Il faudrait que les gendarmes soient dotés de moyens phénoménaux pour courir aussi vite que les voleurs de l’ère digitale ! D’autres critiquent au contraire l’excès de contrôle et le climat bureaucratique entretenu par la législation, incompatible avec l’esprit d’entreprise. Si l’Europe n’a pas su engendrer des grands acteurs comme Google ou Facebook, ce serait à cause des excès de la législation ! À l’heure de l’Intelligence Artificielle, il serait suicidaire d’empêcher d’accumuler les données dont se nourrit le « machine learning ».

Lorsque l’on travaille et étudie réellement les situations, ces critiques ne sont pas pertinentes. Pour ne retenir qu’un seul exemple, les sanctions prises contre Meta-Facebook par plusieurs autorités nationales, dont la CNIL, sont maintenant relayées au plan européen global, avec des amendes de plusieurs centaines de millions d’euros qui amènent ce géant des GAFAM à devoir reconsidérer en profondeur son business model fondé sur un gigantesque traitement de données personnelles sans consentement explicite des personnes concernées. À l’inverse, il n’existe aucun exemple solide d’innovation qui aurait été étouffée dans l’œuf par la législation. Ayant été directement témoin de ces sujets, j’ai pu constater combien certains acteurs utilisaient le prétexte de la contrainte juridique pour expliquer leur retard ou leur échec, lesquels tenaient à de toutes autres causes, alors même que les marges nécessaires leur avaient été accordées pour expérimenter et traiter en masse des données.

Si une critique est à faire, ce n’est pas sur ces registres. Le problème est plutôt celui de la relative faiblesse du cadre conceptuel autour duquel s’est organisé le consensus européen. Comme son nom l’indique, le RGPD répond à l’objectif de « protéger les données ». Ce concept d’origine allemande (« Datenschutz ») est présent depuis des décennies dans le paysage juridique, puisqu’il caractérisait la toute première règlementation, celle du Land de Hesse, en 1970, avant d’être reprise par la législation suédoise de 1973. Mais que signifiait protéger les données ? Aujourd’hui, à l’heure des hackers et du cyberterrorisme, on voit bien l’enjeu procédural et technologique que constitue la protection des données contre des incursions malveillantes. Mais l’enjeu juridique qui était visé dès l’origine allait bien au-delà : il ne s’agissait pas seulement d’empêcher des intrus, il s’agissait d’encadrer l’action des administrations et des entreprises qui collectaient des données. Au fond, l’enjeu n’était pas de protéger les données, mais de protéger les personnes ! Mais les protéger de quoi et au nom de quels principes ? C’est là que le débat européen n’est pas allé au fond des choses car il était sans doute plus facile, à l’époque, de trouver un consensus dans un clair-obscur que de chercher à éclairer la scène en grand.

On faisait appel à une autre notion, d’origine américaine celle-là, quand il s’agissait d’expliciter le concept mystérieux de protection des données : l’enjeu de vie privée, de « privacy ». Bien que 1984, le roman prémonitoire de Georges Orwell, soit encore beaucoup plus ancien, tout le monde s’évertuait, au début des années 1970, à abaisser le niveau d’enjeu et à ne surtout pas parler des principes généraux régissant la vie sociale et donc, précisément, des questions de souveraineté ! L’enjeu était présenté comme une affaire qui concernait les individus et leurs secrets plus ou moins vaudevillesques et non comme une étape majeure dans l’histoire des démocraties. Chacun se souvenait du bras de fer que la France avait engagé avec les États-Unis en 1966, lorsque le Général de Gaulle avait lancé le Plan Calcul. Toute législation sur l’informatique était accusée par les Américains de relever d’une démarche protectionniste. Il fallait faire profil bas et ne légiférer qu’au nom de principes intentionnellement limités.

C’est la législation française qui, la première, a pourtant clairement nommé l’enjeu : celui des droits de l’homme et de la Liberté. Dénommée « Informatique et Libertés », la loi de 1978 pose en principe, dès son article 1er, que « l’informatique doit être au service de chaque citoyen… Elle ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques ». Vrai contrepouvoir, l’Autorité indépendante chargée de veiller à l’application de la loi s’appelle la Commission Nationale de l’Informatique et des Libertés (CNIL). Le choix de la clarté avait été fait par le législateur mais il était sans doute un peu tôt, dans les années 2000, pour que ce vocabulaire s’impose dans les textes européens. Depuis lors, il y a eu aux États-Unis le Patriot Act, voté en urgence le 25 Octobre 2001, moins de deux mois après l’attentat du World Trade Center, et autorisant les services de sécurité, avant même le Cloud Act de 2018, à accéder aux données informatiques des particuliers et des entreprises, sans autorisation préalable et sans information des utilisateurs. En Chine, on a assisté à un déploiement impressionnant de caméras de vidéosurveillance, dotées de systèmes de reconnaissance faciale et alimentant un vaste système de notation des comportements et du « crédit social ».

Au-delà de la protection des données et de la « privacy », chacun voit mieux aujourd’hui que l’on est face à des enjeux majeurs qui concernent précisément l’identité humaine, les droits de l’homme et les libertés. Si la France et l’Europe entendent réellement affirmer leur souveraineté, elles doivent avoir le courage de défendre et d’affirmer leurs valeurs, en osant appeler un chat un chat. Ce combat de clarification conceptuelle est d’autant plus nécessaire que nous sommes à un moment où il devient indispensable de se saisir des nouveaux enjeux pour repenser la Liberté. Tout un cycle se termine en effet où la pensée de la liberté avait été reformulée en termes strictement économiques : cela avait été le travail intellectuel mené après-guerre par Friedrich Hayek et la Société du Mont-Pèlerin, qui avait débouché, trente ans plus tard, sur la vague des gouvernements néo-libéraux de Margaret Thatcher et Ronald Reagan. Aujourd’hui, la vague est retombée et la pensée de la Liberté est désormais malheureusement à terre, étouffée par l’alliance improbable de l’ultra-libéralisme économique et de l’ultra-conservatisme sociétal.

Si l’on ne se saisit pas des enjeux du futur (numérique, écologie, genre, diversité…) pour reformuler une vision vivante de la Liberté, nous glisserons vers une acceptation molle de l’oppression sous ses différentes formes. On entend déjà trop souvent que les défis à affronter exigeraient l’efficacité des régimes autoritaires…  Affirmer nos valeurs et notre souveraineté impose de ne pas seulement protéger les données. Il faut prendre appui sur ces enjeux pour élargir l’horizon et repenser la Liberté.

IA : oser affirmer la loi plutôt que reguler !

Le 31 Mars 2022, l’Assemblée Générale du Conseil d’État a adopté une étude réalisée à la demande du Premier Ministre et intitulée « Intelligence Artificielle : construire la confiance, servir la performance ». Destinée à préparer la France à la mise en place d’un règlement européen sur l’IA, cette étude plaidait pour une puissante accélération dans le déploiement des systèmes d’IA publique. La condition d’acceptabilité de cette politique volontariste reposait, selon le Conseil d’État, sur la définition et la mise en œuvre d’un cadre de confiance. Sept principes généraux étaient énoncés : la primauté humaine ; la performance ; l’équité et la non-discrimination ; la transparence ; la sûreté (cybersécurité) ; la soutenabilité environnementale ; l’autonomie stratégique.

L’objet n’est pas ici d’entrer dans l’examen détaillé des sept principes en fonction desquels s’organiserait une « régulation » du déploiement de l’IA confiée à une Autorité de contrôle qui serait une « CNIL profondément transformée ». Celle-ci deviendrait « un véritable régulateur, soucieux de conjuguer le développement de notre pays par le soutien à l’innovation et le respect des droits fondamentaux des personnes concernées, et un facilitateur de l’innovation technologique au service de la société, soucieux de créer un environnement favorable à l’innovation responsable… Un changement d’appellation marquerait symboliquement cette transformation ». On notera au passage que le terme « liberté » est à peine mentionné et qu’il ne figure en rien dans la liste des sept principes généraux que doit respecter le déploiement de l’Intelligence Artificielle ! Au moment où il faudrait aller de l’avant dans la clarification conceptuelle, le rapport invite à une nette régression…

Le terme « régression » mériterait d’ailleurs d’être entendu ici dans son sens psychanalytique, tant le projet d’estomper la logique de la Loi au profit d’une vague régulation est tout sauf innocent quand il s’agit d’Intelligence Artificielle. De manière très claire et pédagogique, le rapport du Conseil d’État consacre une première partie terminologique à préciser ce qu’il faut entendre par IA, en s’attardant sur le relatif échec de l’IA « symbolique » et sur les récents progrès de l’IA grâce à une toute autre approche, dite « connexionniste ». De quoi s’agit-il ? Au tout départ, il y a le célèbre article d’Alan Turing, « Machines de calcul et intelligence » (Mind, octobre 1950). Turing y développe l’idée que oui, les machines peuvent penser et, dans certains cas, peuvent mieux penser que les humains. Les pionniers (Walter Pitts, Warren McCulloch, Marvin Minsky) illustrent ce pronostic en organisant des réseaux d’algorithmes qui entendent fonctionner comme un cerveau humain parfaitement logique. Cette approche « symbolique » a été prise pour cible par un courant de la recherche, la théorie des automates : en substance, celle-ci démontre que si on entend considérer les ordinateurs (les « machines de Turing ») et les humains comme étant les uns et les autres des automates, ils ne feraient certainement pas partie de la même classe d’automates. Des opérations de pensée comme la traduction d’une langue dans une autre, par exemple, ne sont pas accessibles aux machines de cette manière car elles ne sont pas formalisables sous forme d’un corpus de règles, regroupé dans un algorithme. Des théorèmes sur les langages formels et les langages naturels l’établissent, comme ceux du mathématicien Marcel-Paul Schützenberger et du linguiste Noam Chomsky.

De fait, cette critique épistémologique des fondements même de l’Intelligence Artificielle s’est révélée exacte. Pour contourner ces limites, une idée fut de renoncer à la formalisation d’un cheminement logique et de se contenter de collecter les savoir-faire empiriques qui permettent aux humains de résoudre un problème : ce fut la tentative des « systèmes experts » qui, malgré des crédits importants, fit également long feu. À la fin du XXe siècle, l’Intelligence Artificielle était dans une impasse et l’on parle souvent de l’« hiver » qu’a connu cette jeune discipline. C’est par une toute autre approche que l’IA a rebondi, depuis un peu plus de deux décennies. Le ressort a été une branche des mathématiques, le calcul vectoriel. On peut le caractériser comme une sorte d’algébrisation de la géométrie : dans un espace à N dimensions, le calcul vectoriel permet de mesurer des proximités. Parmi la masse phénoménale de données que charrie Internet, la nouvelle IA, dite « connexionniste », a trouvé un terrain de jeu particulièrement adapté : le traitement automatique des images. C’est ce que l’on appelle le « machine learning » : en examinant des milliards d’images, l’ordinateur va détecter les constantes, les anomalies et les proximités. Dans le domaine de la cartographie, du renseignement militaire, de l’imagerie médicale, une Intelligence Artificielle nouvelle a ainsi pris naissance, capable de repérer des micro-variations ou des micro-émergences qui vont servir à établir rapidement un diagnostic sûr.

Le fait culturel le plus saisissant est que cette approche a réussi à se déployer dans des domaines qui semblent sans rapport avec l’image. Une accélération très forte de la seconde vague de l’IA est en fait venue de procédures permettant de transformer un texte en une image. C’est ce que font les logiciels de Word Embedding, comme Word2Vec développé par Google. En calculant la proximité statistique des mots, ces logiciels permettent de prédire quel est le mot qui va suivre tel autre, ce qui ressemble au fait de maîtriser le sens. Pour les moteurs de recherche, il s’agissait au départ d’un élément décisif pour éviter les « silences » excessifs dans la réponse à une interrogation. Par exemple, si quelqu’un cherche un fast-food vegan dans telle ou telle ville, un moteur performant ne peut pas se contenter d’indiquer les seuls établissements qui auraient utilisé les termes « fast-food » et « vegan » dans leur définition. Il faut également pouvoir donner l’adresse d’établissements qui n’y font pas référence, mais qui parlent de « sandwich » et de « sans viande » ! Le renouveau de l’IA est venu de ce type de logiciels. Dès lors que Google et consorts maitrisaient ces successions, ces bifurcations ou ces substitutions de mots, un boulevard s’ouvrait en effet à eux pour développer des agents conversationnels.

Au cœur de la vague actuelle de l’IA, on trouve ainsi une immense régression du symbolique vers le traitement de l’image, vers l’imaginaire. En termes technologiques, cela explique l’importance de l’enjeu des cartes graphiques, souligné dans la note de Laurent Daudet. En termes culturels, anthropologiques et psychanalytiques, cela débouche sur des interrogations assez fondamentales, compte tenu de la distinction majeure établie par Jacques Lacan entre l’ordre du symbolique et celui de l’imaginaire. Sans avoir connu les développements récents de l’IA connexionniste, le grand mathématicien Marcel-Paul Schützenberger caractérisait l’IA comme un être hybride dont l’avancée relevait directement de la société du spectacle. Il disséquait la manière dont l’IA savait faire rêver les gestionnaires d’appels d’offres, en faisant miroiter les perspectives exactes que ceux-ci fantasmaient de financer. Le spécialiste de l’IA Jean-Michel Truong a développé cette intuition il y a vingt ans, dans le livre Totalement inhumaine. La thèse de cet essai est que l’IA croît et s’auto-reproduit comme un être autonome, en combinant des « items » et des « mèmes » : morceaux de logiciel, les items se démultiplient et s’organisent de façon toujours plus sophistiquée ; images obsédantes colonisant le psychisme des décideurs, les mèmes induisent des raisonnements qui déclencheront les crédits dont l’IA a besoin pour perfectionner les items et nourrir sa propre croissance.

Citer ces textes de Schützenberger et de Truong a l’avantage de remonter le temps et de montrer que l’IA baigne aujourd’hui dans l’image parce qu’elle est née de l’image. Il ne faudrait pour autant pas croire que cet imaginaire-spectacle serait une vieille chose, parfaitement dépassée au stade de l’imaginaire-outil. Le rapport de Cédric Villani, « Donner un sens à l’intelligence Artificielle », date de mars 2018. De manière classique, chaque partie du rapport articule constats, analyses et propositions au gouvernement. Mais, ce qui est plus original, chaque partie est complétée d’un texte qui se veut littéraire et qui est imprimé sur un fond bleu, avec le même titre pour chacun de ces encadrés conclusifs : « Dans l’imaginaire ». Certains de ces onglets ont une dimension positive et utopique tandis que d’autres sont clairement dystopiques et peuvent paraître effrayants. En quelque sorte, peu importe ! Rêve ou cauchemar, il faudrait que l’IA parasite les esprits humains pour pouvoir prospérer.

Kant disait que les Lumières correspondent au moment où l’humanité accède à sa majorité. Il est bon de s’en souvenir et d’éviter que l’IA soit le moment où le peuple souverain retomberait en enfance. Jouer avec les dangers de l’IA pour en déduire qu’il faut en faire un sujet de régulation de haut niveau, cela risque, dans ce contexte, de n’être qu’une ruse supplémentaire qui consacre un Roi Imaginaire. Nous nous séparons nettement du rapport publié par le Conseil d’État. Si l’on aspire réellement à une souveraineté numérique, il faut rompre cet entrelacs de l’imaginaire et affirmer le rôle prépondérant du symbolique. Les sociétés humaines ont un instrument pour exprimer leur volonté et leur souveraineté : la Loi. Qu’il s’agisse de lois nouvelles ou de lois existantes, la souveraineté numérique passe par la reconstruction du symbolique. Il faut oser affirmer la Loi.