Les États-Unis et la Chine se livrent une lutte de plus en plus acharnée pour obtenir le statut de superpuissance. Beaucoup n'avaient initialement perçu cette confrontation que sous l’angle d’une guerre commerciale. Cependant, la «saga» de ZTE indiquait déjà que le problème était plus vaste et impliquait une bataille pour la suprématie sur les technologies du 21ème siècle et, parallèlement, pour le pouvoir international (voir Quand l'IA commença à créer l'IA - Intelligence artificielle et puissance de calcul, 7 mai 2018).

La bataille technologique sino-américaine ressemble de plus en plus à un combat à mort avec l'offensive contre Huawei visant notamment à protéger les futurs réseaux 5G (Cassell Bryan-Low, Colin Packham, David Lague, Steve Stecklow et Jack Stubbs, "The China Challenge: the 5G Fight“, Reuters enquête, 21 mai 2019). Les conséquences sont lourdes pour Huawei et la Chine, ainsi que pour le monde. Après l'arrêt de la licence Android de Huawei par Google et l'exclusion d'Intel et de Qualcomm, le concepteur britannique de puces ARM, détenu notamment par le japonais Softbank, interrompt désormais ses relations avec Huawei (Paul Sandle, «ARM supply halt deals fresh blow to Chinese tech giant Huawei“, Reuters, 22 mai 2019; “DealBook Briefing: The Huawei Backlash Goes Global“, Le New York Times23 mai 2019; Tom Warren, “Huawei’s Android And Windows Alternatives Are Destined For Failure“, The Verge, 23 mai 2019).

La possible action américaine à venir contre la société chinoise Hikvision, l'un des plus grands producteurs mondiaux de systèmes de vidéosurveillance incluant notamment «l'intelligence artificielle, la surveillance de la parole (speech monitoring) et les tests génétiques», ne ferait que confirmer l'offensive de Etats-Unis (Doina Chiacu, Stella Qi, «Trump says ‘dangerous’ Huawei could be included in U.S.-China trade deal“, Reuters, 23 mai 2019; Ana Swanson et la Edward Wong, “Trump Administration Could Blacklist China’s Hikvision, a Surveillance Firm“, Le New York Times, 21 mai 2019).

La Chine, pour sa part, répond à la fois à la guerre commerciale et à la lutte technologique avec une mobilisation idéologiquement martiale de sa population sur le modèle de la «People’s War», de «La Longue Marche» et de la reprogrammation des émissions de télévision pour diffuser des films de guerre (Iris Zhao et Alan Weedon, "Chinese television suddenly switches scheduling to anti-American films amid US-China trade war“, ABC News, 20 mai 2019; Michael MartinaDavid Lawder, “Prepare for difficult times, China’s Xi urges as trade war simmers“, Reuters, 22 mai 2019). Cela met en évidence l’importance de l’enjeu pour l’Empire du Milieu, comme nous l’avons expliqué précédemment (★ Capteur et actionneur (4): intelligence artificielle, longue marche vers les robots avancés et la géopolitique).

Ces mouvements soulignent les immenses intérêts en jeu. En effet, les nouvelles technologies, de l’intelligence artificielle (IA) sous ses multiples formes à l’internet des objets (IoT) en passant par la communication, ou par les sciences et les technologies de l’information quantique (QIS), participent à un changement paradigmatique, qui inclut également la gouvernance, les relations internationales. le pouvoir et la manière dont les guerres peuvent être combattues et gagnées.

Contenu
  1. Comment les êtres humains deviennent les actionneurs des agents-IA
    1. Étude de cas
      1. L'exemple du jeu de Go de Google DeepMind
      2. Voyager en avion
      3. Le cas des maisons intelligentes
    2. Former les êtres humains à agir sans réfléchir
  2. Gagner une guerre par la soumission de l’ennemi: réflexion sur un scénario dystopique
  3. De la création de ponts entre les mondes à la modification de l'équilibre des mondes
    1. Changer les mondes pour surmonter les difficultés
      1. Passerelles numériques
      2. Dématérialiser le monde
      3. Bienvenue dans la matrice
    2. L'impossible dématérialisation totale du monde et ses vulnérabilités
      1. Un monde uniquement numérique n'existe pas
      2. L'énergie, composante cachée physique de la numérisation
      3. Les entreprises informatiques, les catastrophes liées au changement climatique et la responsabilité
    3. Les pays utilisateurs paient la facture, menaces systémiques et un rebondissement stratégique
      1. Pays utilisateurs et menaces systémiques
      2. Un rebondissement stratégique

Nous nous concentrerons ici sur certains de ces nouveaux visages de la sécurité en général et de la guerre en particulier. Ces changements potentiels - et déjà opérationnels - résultent de la dynamique complexe qui s'est déclenchée. Comme nous l'avons découvert précédemment, la difficile marche vers les robots avancés, ajoutée au vif intérêt des parties prenantes pour l'obtention et la mise en oeuvre de systèmes d’Intelligence Artificielle (IA), notamment l'apprentissage en profondeur (AP), qui soient opérationnels et rentables, entraînent une conséquence inattendue. Les êtres humains eux-mêmes sont de plus en plus attirés dans l'écosystème des agents-IA. Ils sont en fait transformés en actionneurs pour des algorithmes.

Utilisant les faits et donnant des exemples, nous allons d'abord expliquer comment les êtres humains deviennent les actionneurs des agents-IA. Ensuite, nous esquisserons un scénario expliquant comment cette évolution pourrait conduire à un avenir dystopique dans lequel un acteur étatique maîtrisant des agents d'intelligence artificielle pourrait remporter une nouvelle guerre.

Troisièmement, nous nous tournerons vers le monde du numérique et vers le monde physique ainsi que vers les ponts construits entre eux. Nous soulignerons que la nécessité de voir l'IA se développer conduira également à une dématérialisation plus poussée du monde, avec, comme extrême, la réalité virtuelle. Cependant, nous expliquerons que la dématérialisation totale est impossible et entraîne un coût caché important, à savoir une consommation d'énergie en hausse, avec des impacts sur le changement climatique. Nous soulignerons également que les pays utilisateurs supportent le fardeau énergétique et font donc face à des menaces systémiques majeures. Enfin, nous identifierons un moyen d’empêcher ces menaces systémiques, grâce à un "rebondissement" stratégique intéressant.

Comment les êtres humains deviennent les actionneurs des agents-IA

Étude de cas

L'exemple du jeu de Go de Google DeepMind

Reprenons tout d’abord notre exemple initial du jeu de go de Google DeepMind (voir Insertion de l'intelligence artificielle dans la réalité). Comme nous l'avons expliqué, les paramètres du jeu sont les suivants:

Capture d'écran de la vidéo Google DeepMind: le révolutionnaire AlphaGo maîtrise le jeu de Go - 1:19

Nous avons indiqué que, pour que l'agent d'intelligence artificielle de DeepMind devienne pleinement opérationnel, il fallait lui fournir un capteur pour remplacer la femme en C et un actionneur à la place de l'homme en A.

Cependant, pour obtenir un actionneur en A, nous aurions idéalement besoin d’un robot avancé. Comme on l'a vu, ces robots sophistiqués ne sont pas encore disponibles (★ Capteur et actionneur (4)…). Nous sommes encore loin d'avoir les types de robots avancés dont nous aurions besoin pour la plupart des tâches d'activation que les agents IA / AP exigeraient idéalement (Ibid.).

Ainsi, ce qui se passe, c’est que A restera un être humain dans un avenir proche, tandis que l'IA (et notamment l'apprentissage profond) continuera à croître car les parties prenantes ont besoin de cette expansion (Ibid.).

En d'autres termes, afin de surmonter le manque actuel d'actionneurs non humains, les parties prenantes qui promeuvent les agents d'intelligence artificielle et leur utilisation transformeront les êtres humains, que l'IA est censée aider, en actionneurs de ces agents.

Voyager en avion

Comme autre exemple, prenons une série d’agents d’intelligence artificielle qui visent à vendre des billets d’avion. Le but final du voyageur est de pouvoir aller de chez lui à la place P. À travers la numérisation du processus et l’utilisation de divers algorithmes, les meilleurs étant du type apprentissage en profondeur, le futur voyageur se verra présenter une série de destinations, des itinéraires de compagnies aériennes. Il / elle en choisira un puis paiera la compagnie aérienne pour son billet.

Si notre voyageur a un téléphone intelligent, il pourra obtenir le billet sur celui-ci. Sinon, il devra l’imprimer. À l'aéroport, sans téléphone intelligent, il devra imprimer une carte d'embarquement.

Dans tous les cas, il devra imprimer les étiquettes de bagages. Selon les robots disponibles à l'aéroport, il devra scanner la carte d'embarquement et les étiquettes de bagage, mettre les bagages sur le tapis automatique, vérifier le poids ou bien transporter les bagages dans un robot qui vérifiera ensuite étiquettes et poids et enregistrera les bagages.

Enfin, il sera prêt à passer les contrôles de sécurité.

Pour la plupart de ces étapes, nous pouvons voir comment l’utilisateur, c’est-à-dire un être humain, compense, en fait, l’absence de périphérique intelligent avancé. Les utilisateurs ont été transformés en actionneurs des agents-IA de la compagnie aérienne, remplaçant également les anciens employés de la compagnie aérienne. De plus, lorsqu'un appareil intelligent est disponible, ce sont les consommateurs ou les utilisateurs qui doivent acheter ces appareils intelligents. Ainsi, ils supportent désormais également une partie des investissements autrefois payés par les entreprises.

Nous avons observé quelque chose de similaire dans le cas de l’agriculture intelligente, lorsque des machines agricoles de pointe n’étaient pas disponibles ou intégrées dans l’ensemble du processus utilisant l’IA (voir ci-dessous). ★ Intelligence artificielle, l'Internet des objets et l'avenir de l'agriculture: la sécurité de l'agriculture intelligente? (1) et la (2)).

Le cas des maisons intelligentes

Le cas est moins clair lorsque nous examinons les maisons intelligentes et certains de leurs composants, telles que les fameux assistants d’IA, Alexa pour Amazon, qui se connecte avec le haut-parleur intelligent Echo, ou Google Assistant, qui se connecte aux appareils IdO (Internet des Objets), du téléphone portable à une tablette, via le haut-parleur Google Home.

Nous pouvons imaginer qu'un de ces assistants pourrait émettre une suggestion telle que «pour atteindre à temps l'endroit où vous devez rencontrer ce client ou cette personne, vous devez partir maintenant et conduire en fonction de cet itinéraire».

Une première série d'actionneurs serait à l'œuvre pour traduire le résultat des algorithmes AP en une série de phrases ordonnées de manière logique pour un agenda humain. D'autres actionneurs pourraient alors exprimer les suggestions de manière à ce qu'un être humain puisse entendre et comprendre. Dans d'autres cas, si les capacités vocales ne sont pas disponibles, la recommandation pourrait être affichée sur un écran.

Probablement, la personne recevant les suggestions percevrait l'assistant d'IA comme l'aidant, ce qui est probablement vrai.

Cependant, du point de vue des agents-IA, l'individu agirait également sur les suggestions de ces agents. L'individu ferait en sorte que la production des agents d'intelligence artificielle existe dans le monde physique.

Former les êtres humains à agir sans réfléchir

Ce qui nous dérange, d'un point de vue d’être humain, c’est que la séquence «de la cognition à l’action», construite sur 40 000 ans si l’on ne considère que le Cro-magnon (Encyclopaedia Britannica), est cassée. En résumé, si nous faisons une évaluation très simpliste de la séquence conduisant à nos actions, nous avons plus ou moins le schéma suivant: détecter le monde, analyser les données collectées, décider en fonction de l'analyse, agir. Ce modèle devrait être affiné à l'aide des recherches existantes. Cependant, quels que soient les résultats des travaux de recherche les plus récents, avec l'assistant d'intelligence artificielle, notre processus habituel permettant l'action est modifié et une partie de celui-ci est supprimé.

Dans notre cas, les agents-IA effectuent l'analyse, puis suggèrent des possibilités de décision. Cela vise à nous rassurer et à nous faire croire que nous sommes libres de décider d’agir ou non, puis d’agir en conséquence.

Cependant, décider sans aucun contrôle sur les intrants ni sur l'analyse, puis agir en fonction de cette décision, va à l'encontre des efforts de compréhension, de connaissance et d'éducation de milliers d'années d'histoire. C'est comme si nous avions été transformés au mieux en enfants, au pire en esclaves… ou en robots. Même si la décision reste entre nos mains, la décision sans conscience de l'analyse n'est pas une décision réelle, et la porte est ouverte à la possibilité de manipulation ou d'erreur.

D'où, ici, le besoin absolu de développer la confiance, ainsi que la capacité de superviser l'analyse, c'est-à-dire de surmonter le "problème de la boîte noire" de l'IA (par exemple, Will Knight, "The Dark Secret at the Heart of AI“, Examen de la technologie MIT, 11 avril 2017)

Qui plus est, ce sont des entreprises qui sont propriétaires des agents-IA. Donc, il est certain qu’elles utiliseront ces agents pour leur bénéfice d'abord, pour celui de leurs clients ensuite, ce qui ne fait qu’aggraver le problème. Des décennies de publicité et de marketing tentant de manipuler le processus de prise de décision des consommateurs ne font qu'augmenter la suspicion, sans parler de siècles de lobbying au profit des entreprises, le plus souvent contre le bien public.

Ainsi, seule une position très forte des autorités politiques en tant que garantes du bien public et de la sécurité de chaque citoyen, qu’il s’agisse d’un particulier ou d’une personne juridique, peut, en fin de compte, établir les conditions de la confiance absolument nécessaire pour que l'on puisse voir se développer en toute sécurité des agents-IA qui en fait transforment des êtres humains en actionneurs.

De plus, il sera crucial de veiller à ce que les capacités humaines ne soient pas perdues entre-temps. Deux auteurs évoquent cette possibilité dans le cas de la prise de décision stratégique, par exemple (Andrew Hill, «Artificial intelligence creates real strategic dilemmas“, Financial Times20 mai 2019).

Gagner une guerre par la soumission de l’ennemi: réflexion sur un scénario dystopique

Un scénario dystopique peut être imaginé pour mettre en évidence certaines des caractéristiques de cette réalité possible.

La nouvelle société est segmentée en deux.

Les citoyens et les entreprises les plus riches peuvent acheter les robots qui agissent ensuite à leur place, lorsque ces robots avancés sont disponibles. Dans ce cas, ces personnes plus riches économisent du temps et des ressources pour un certain nombre de tâches, entièrement sous-traitées à des agents-IA et à leurs actionneurs, des robots avancés. Certes, dans l'intervalle, ces personnes abandonnent aussi une partie de leur pouvoir, puisque l'action - comme en allemand Macht ou en anglais Might - est fondamentalement le pouvoir. Pourtant, quelques-une de ces personnes, celles qui sont assez sages pour le faire, utilisent le temps disponible pour d'autres tâches plus évoluées.

Les citoyens et les entreprises les plus pauvres, la grande majorité, sont de plus en plus transformés en actionneurs des agents-IA et de leurs propriétaires. Leur volonté est apparemment conservée. Cependant, parce qu’ils agissent en fonction des suggestions et des analyses faites par des agents-IA appartenant à des entreprises, ils sont de facto soumis aux intérêts des différentes parties prenantes.

Reprenons notre exemple précédent: l’appareil connecté du citoyen le plus pauvre se rendant à un rendez-vous choisira un itinéraire qui se rapprochera de tel ou tel magasin. L'appareil lui dira alors qu'il doit acheter tel produit, disponible par hasard dans ce magasin. Par contre, notre citoyen plus riche, avec son ensemble de robots, n'aura pas à subir cela. Il trouvera les produits déjà livrés chez lui.

Il pourrait donc sembler que les personnes les plus pauvres soient en réalité mieux loties, en terme de liberté, que la classe plus riche. Cela est toutefois discutable. Dans le cas des plus pauvres, une habitude se développe, selon laquelle vous vous appuyez sur quelque chose qui vous dit quoi faire, sans pensée préalable. Ainsi, l'apparente liberté de décision n'est effectivement qu'une apparence. Ensuite, une fois que l’habitude est formée et que la capacité de penser avant d’agir est perdue, la porte est ouverte à toute manipulation.

Il est vrai, les individus les plus riches seront mis devant le fait accompli, mais la séquence menant de la réflexion à l’action n’aura été ni brisée ni endommagée. Si - et c’est un grand si - les plus riches utilisent le temps qu’ils ont économisé pour s’éduquer davantage, ils peuvent alors échapper à un autre danger, celui d’abandonner complètement toute maîtrise de certains secteurs de leur vie.

Dans les deux cas, sans contrôle ni protection puissants, les citoyens risquent fortement de perdre une partie de leur humanité et de se transformer en choses. Ils peuvent devenir progressivement l'outil des agents-IA et de leurs propriétaires, sans jamais se battre, car la transition aura été lente et apparemment anodine.

Maintenant, considérons que le principal intervenant ayant vendu la série d’agents-IA est une puissance étrangère. Alternativement, les entreprises vendant ces agents-IA peuvent aussi être étrangères et, pour diverses raisons, y compris l'intérêt national et la sécurité nationale, se doivent d'obéir à leurs autorités politiques, c'est à dire un Etat étranger.

Cette puissance étrangère aurait alors un contrôle presque complet sur la population utilisant les agents-IA. En cas de guerre, en supposant que l'armée et les autorités politiques du pays ciblé aient l'intention de se battre, l'acteur étranger dirigeant les agents-IA pourrait facilement manipuler la population utilisatrice, qu'elle soit riche ou pauvre, selon la manière dont chaque type de population a été transformée. L'armée pourrait alors être confrontée à d'éventuelles attaques non seulement provenant de l'extérieur, mais aussi résultant d'une masse d'ennemis intérieurs. En effet, la population, facilement manipulée par l'IA et par l'habitude créée de ne pas réfléchir avant d'agir, pourrait se retourner de différentes manières contre sa propre armée. L'agresseur se battrait donc et finalement gagnerait avec un minimum de pertes.

Considérant ce danger, les autorités politiques - supposant à nouveau qu’elles ne soient ni prédatrices ni "vendues" à un acteur plus fort et plus puissant - ont un immense intérêt à faire en sorte que la population qu’elles dirigent ne soit pas dirigée par d’autres.

De manière générale, il ne s'agit pas de refuser le progrès technique, ni d'accroître la peur et l'hostilité existantes envers l'IA. Ce qui compte, c'est d'être conscient des risques et d'essayer de prendre les mesures qui s'imposent pour tirer le meilleur parti des progrès accomplis tout en atténuant les conséquences négatives non-intentionnelles.

Plus spécifiquement, pour chaque polis (une société et son organisation politique), il devient important de comprendre les enjeux, et de s’assurer qu’une règle étrangère, et potentiellement négative, n’est pas imposée à une population candide. Même sans intention agressive, la possibilité même qu'une capacité facilitant une gouvernance étrangère soit mise en place devrait faire retentir la sonnette d'alarme et déclencher des actions de protection.

Qui plus est, comme le montre l'exemple du transport aérien, l'enjeu n'est pas uniquement l'utilisation d'agents-IA. La question est plus vaste et englobe tout le processus de numérisation, comme nous allons l'explorer maintenant.

De la création de ponts entre les mondes à la modification de l'équilibre des mondes

Initialement, nous avons constaté que les capteurs et les actionneurs d’un agent-IA (ou d’une série d’entre eux) servaient également de passerelles entre différents types de mondes ou de réalités (Insertion de l'intelligence artificielle dans la réalité).

Changer les mondes pour surmonter les difficultés

Passerelles numériques

Nous pouvons avoir des IA qui opèrent uniquement dans le monde numérique. Dans ce cas, les capteurs et les actionneurs relient principalement différentes manières de comprendre le monde numérique. Par exemple, un capteur «lira» une entrée numérique initialement intelligible pour l'homme ou un autre appareil et la rendra intelligible pour l'agent IA. L'actionneur prendra la production résultant de l'intelligence artificielle et la rendra compréhensible numériquement pour tout acteur qui en a besoin, qu'il soit humain ou non.

Le dernier exploit réalisé par AlphaStar, l'agent d'intelligence artificielle de Google DeepMind, lorsqu'il a maîtrisé le jeu Blizzard StarCraft II, illustre bien ces environnements exclusivement numériques (AlphaStar Team, «AlphaStar: Mastering the Real-Time Strategy Game StarCraft II“, Blog DeepMind, 2019 - consultez leur site Web pour plus de photos et de vidéos).

AlphaStar en action avec les différentes séquences d'entrée et de sortie - Voir l' image originale de DeepMind pour l'animation

Dématérialiser le monde

De façon plus complexe, nous avons des capteurs et des actionneurs qui doivent servir de passerelles entre le monde physique ou matériel et le monde numérique.

Face à la difficulté de créer ces passerelles entre des mondes véritablement différents, la solution consiste non seulement à transformer les êtres humains en actionneurs, mais également à intégrer autant que possible le monde physique dans le monde numérique. C'est exactement ce que l'exemple ci-dessus du transport aérien décrit.

On peut donc s’attendre à ce que, dans les années à venir, la numérisation du monde soit encore plus encouragée. En effet, nous avons vu précédemment l’intérêt manifesté par diverses parties prenantes pour développer et rendre rentables les systèmes d’IA, et notamment d'AP (voir la partie 3 de ★ Capteur et actionneur (4): intelligence artificielle, longue marche vers les robots avancés et la géopolitique). Ainsi, ces acteurs risquent fort de transformer les êtres humains en actionneurs, tout en réduisant aussi, autant que possible, le besoin d'actionneurs permettant de relier le numérique au monde physique, selon une double stratégie.

La numérisation du monde devient une dématérialisation avec laquelle l'homme doit trouver des moyens d'interagir.

Bienvenue dans la matrice

Une évolution extrême de ce phénomène consisterait à développer davantage ce que l’on appelle la réalité virtuelle, amenant ainsi de plus en plus d’êtres humains dans le monde des agents-IA. Dans ce cas, les actionneurs seraient retournés. Ils ne seraient plus des appareils agissant comme des passerelles du monde numérique au monde physique et permettant aux agents d'intelligence artificielle de produire dans le monde physique. Ils seraient un moyen de relier le monde physique au monde numérique, donc semblables à des capteurs, et faisant entrer les êtres humains dans le monde des agents-IA.

Bienvenue dans la matrice!

Les appareils permettant cette transformation pourraient être externes, comme par exemple avec les célèbres casques de RV ("Les meilleurs casques VR pour 2019“, Magazine PC) ou avec les lunettes Google (dernière génération pour les entreprises, annonce du 20 mai 2019). Ils pourraient même être implantés chez l'homme. Ils pourraient être un mélange des deux (externe et interne), comme avec AlterEgo, «une interface neuronale périphérique, non invasive et portable, qui permet aux humains de converser en langage naturel avec des machines, des assistants d'intelligence artificielle, des services et d'autres personnes sans aucune voix…. l’utilisateur reçoit par voie audio, via la conduction osseuse. "… Les capteurs « capturent les signaux neuronaux périphériques lorsque les articulateurs de parole internes sont activés de façon volontaire et neurologique »(Site AlterEgo; voir aussi Lauren Golembiewski, “How Wearable AI Will Amplify Human Intelligence“, HBR,30 avril 2019).

TED2019 | Avril 2019

La dématérialisation du monde, y compris sous sa forme extrême, la réalité virtuelle, et l'inversion des actionneurs, ainsi qu'avant cette étape, la transformation de l'homme en actionneur, ont des impacts cruciaux pour les forces armées. La nature de leurs cibles potentielles change, en effet. Ainsi, les buts, les moyens d’attaque et de défense doivent également changer en conséquence. Cependant, comme expliqué ci-dessous, nous ne devons pas non plus exagérer les changements. Compte tenu du temps nécessaire pour mettre au point de nouveaux systèmes d’armes et armements, il est essentiel d’anticiper ces évolutions.

L'impossible dématérialisation totale du monde et ses vulnérabilités

Regardons maintenant ces séquences globalement, de façon systémique, avec le schéma ci-dessous.

Modèle d'actionneur de capteur PDDP
Intelligence artificielle, numérisation et dématérialisation du monde

Un monde uniquement numérique n'existe pas

Parce que, en tant qu'êtres humains, nous vivons dans le monde réel et sommes des êtres physiques, à un moment ou à un autre, même ce qui semblait initialement ne se dérouler que dans le monde numérique devra être traduit dans le monde physique. Quelle que soit l'ampleur de la dématérialisation, il faudra établir des ponts avec le monde physique.

Quelle que soit l'ampleur de la dématérialisation, il faudra établir des ponts avec le monde physique.

Ainsi, en réalité, la façon correcte d’envisager la question d’un point de vue systémique n'est pas d'envisager deux types de séquences, l'une numérique-numérique, et l'autre numérique-physique, les deux étant séparés.

Ce que nous avons est toujours une séquence unique qui, en terme de mondes ou d'environnements, est physique-numérique-numérique-physique. Si la partie numérique est égale à zéro, on retrouve les interactions physiques classiques. Mais nous ne pouvons en aucun cas supprimer les deux extrémités physiques, même si nous pensions être dans une séquence numérique-numérique.

Même dans le cas extrême d'une réalité virtuelle généralisée, il faudra toujours satisfaire les besoins essentiels des êtres humains, comme la nourriture et la boisson, ainsi que le décrit effectivement le film The Matrix. Le processus émotionnel et cognitif humain devra être maintenu en bonne santé, comme dans Total Recall. En attendant, le système numérique devra fonctionner.

L'énergie, composante cachée physique de la numérisation

En effet, même cachée, la dématérialisation de la société est toujours liée par un pont fondamental au monde physique ou matériel. Ce lien est l’utilisation de la ressource la plus fondamentale du monde physique, l’énergie, comme l’a si judicieusement souligné Thomas Homer Dixon (The Upside of down, catastrophe, creativity and the renewal of civilization, 2006).

Dans ce cadre, Janine Morley, Kelly Widdicks et Mike Hazas examinent «la croissance phénoménale du trafic Internet, comme tendance avec des implications importantes pour la demande énergétique» ("Digitalisation, energy and data demand: The impact of Internet traffic on overall and peak electricity consumption", Energy Research & Social Science, Volume 38, avril 2018, pages 128-137, https://doi.org/10.1016/j.erss.2018.01.018). Appelant à un agenda pour mieux comprendre puis atténuer «les projections les plus problématiques de la consommation d’énergie par l'Internet», ils soulignent également la grande consommation d'énergie que l'Internet et donc la numérisation impliquent, même si différents scénarios restent possibles, compte tenu de l’incertitude. Par exemple:

«La plupart des estimations de consommation d’énergie liée aux Technologies de l'Information et de la Communication (TIC) prédisent également une croissance soutenue. Par exemple, Van Heddeghem et al. estiment que l'électricité consommée par les appareils et les infrastructures numériques croît plus vite (7% par an) que la demande mondiale d'électricité elle-même (3% par an), le taux de croissance des réseaux étant le plus élevé (10,4%). Andrae et Edler, anticipant également un taux de croissance composé de 7% par an, estimant que la production et l'exploitation des TIC atteindront 21% de la consommation mondiale d'électricité d'ici à 2030: il s'agit d'une augmentation absolue à 8 000 TWh, sur une base d'environ 2 000 TWh en 2010. Dans le pire des scénarios, cela pourrait atteindre 50% de la consommation mondiale d’électricité d’ici à 2030, et seulement 8% dans le meilleur des cas. » 

W. Van Heddeghem, S. Lambert, B. Lannoo, et al. “Trends in worldwide ICT electricity consumption from 2007 to 2012”, Comput. Commun., 50 (2014), pp. 64-76A and Andrae, T. Edler, “On global electricity usage of communication technology: trends to 2030”, Challenges, 6 (2015), p. 117, quoted by Morley, Widdicks, and Hazas.

Si des efforts d'efficacité énergétique ont été déployés, ils n'ont jusqu'à présent pas pu compenser la croissance de la consommation d'énergie (ibid.).

Les entreprises informatiques, les catastrophes liées au changement climatique et la responsabilité

Il va sans dire que l’impact en termes de changement climatique, puis de multiples effets néfastes connexes, est tout aussi important.

La décision de Microsoft pourrait-elle montrer que ses dirigeants sont pleinement conscients non seulement de la forte empreinte énergétique de la société, mais aussi de sa participation aux catastrophes mondiales liées au changement climatique?

Comme signal supplémentaire de cette lourde empreinte énergétique, avec des impacts négatifs liés au changement climatique, «Microsoft a rejoint un groupe dirigé par des conservateurs qui demande l'immunité légale pour les entreprises de combustibles fossiles par rapport à ceux qui pourraient être tentés de les attaquer pour récupérer les dommages causés par le changement climatique qu'elles ont contribué à causer. "… Microsoft devient ainsi" la première société de technologie à rejoindre le CLC [Climate Leadership Council], qui comprend les géants pétroliers BP, ExxonMobil, Shell, Total et ConocoPhillips parmi ses membres fondateurs. "(Oliver Milman,"Microsoft joins group seeking to kill off historic climate change lawsuits“, The Guardian, 1er mai 2019). La décision de Microsoft pourrait-elle montrer que ses dirigeants sont pleinement conscients non seulement de la forte empreinte énergétique de la société, mais aussi de sa participation aux catastrophes mondiales liées au changement climatique? Cette décision souligne également à quel point nous devons prendre la «communication d'entreprise» avec prudence.

Les pays utilisateurs paient la facture, menaces systémiques et un rebondissement stratégique

Pays utilisateurs et menaces systémiques

De plus, Morley, Widdicks et Hazas soulignent un point crucial:

"Si les études sont exactes, cela suggère que l'essentiel de la consommation d'énergie des infrastructures Internet a lieu dans le pays d'utilisation."

En conséquence, dans la même dynamique, la population (qu’il s’agisse de citoyens ou d’entreprises) des pays utilisant des systèmes-IA est tout d’abord transformée en actionneurs. Deuxièmement, ils voient leur monde dématérialisé et doivent trouver des moyens de gérer cette dématérialisation. Troisièmement, quand ils le peuvent, ils doivent également investir dans des équipements coûteux s'ils veulent éviter d'être complètement «robotisés». Quatrièmement, ils doivent finalement aussi payer les coûts énergétiques directs et cachés, ainsi que les conséquences de ces coûts, au moyen de leurs factures énergétiques et de leurs impôts.

De toute évidence, les conséquences pour un État et sa population sont très différentes si un pays est producteur de dématérialisation et d'IA ou consommateur de celles-ci. La position en termes de leadership et de course à l'IA ainsi qu'à la puissance de calcul informatique, donc en influence et en part de marché, est également importante. Ceux qui sont en avance et donc les plus influents développent un pouvoir immense et multidimensionnel sur les autres.

Pour les autres pays, seules des autorités politiques fortes, conscientes des défis à relever, peuvent espérer s'attaquer à la menace systémique correspondante qui pèse sur l'ensemble de la population.

En conséquence, compte tenu de la forte suprématie américaine en la matière et des énormes efforts déployés par la Chine pour devenir chef de file dans ce domaine, la confrontation des deux pays devient encore plus logique, pour ne pas dire inévitable. En attendant, d’autres pays, s’ils le peuvent, feraient mieux de se réveiller et de mettre en place toute une gamme de réponses, s’ils ne veulent pas payer un prix extrêmement lourd.

Un rebondissement stratégique

Par un rebondissement stratégique intéressant, la dépendance énergétique d’une part, la dépendance humaine de l’autre, pour l’ensemble du système, pourraient bien être les clés de la liberté pour les pays les moins influents.

Autrement dit, les autorités politiques concernées pourraient chercher à éduquer leur population pour qu’elle ne soit pas victime des pires conséquences cognitives de la transformation en "actionneurs". Ceci constituerait un premier type de réponse.

Deuxièmement, les acteurs pourraient développer une série d’actions, d’outils et d’armes visant à menacer l'approvisionnement en énergie des constructeurs et fournisseurs du monde dématérialisé et des agents-IA. Ils pourraient alors utiliser l’existence même de ces dispositifs comme une assurance préventive pour s’assurer que les fournisseurs de dématérialisation et d’IA n'aillent pas à l’encontre de leur population, ou ne se comportent pas de façon qui génère des conséquences néfastes pour la population et le pays. En cas de besoin, comme une guerre déclarée, des actions anti-énergie, ce pont entre le monde numérique et le monde physique, pourraient faire s'effondrer tout l'édifice numérique de l'ennemi.

Enfin, d’un point de vue défensif et sécuritaire, l’être humain et le «pont énergétique» doivent être sécurisés en priorité. Cela signifie également agir pour s'assurer que le changement climatique et ses impacts, ainsi que l'épuisement des ressources énergétiques, ne détruisent pas finalement ceux qui ont contribué à la propagation de ces menaces existentielles pour les espèces vivantes de notre planète Terre.


Photo: Samsung’s Virtual Reality MWC 2016 Press Conference, by Maurizio Pesce from Milan, Italia [CC BY 2.0] via Wikimedia Commons.

A propos de l'auteur: Dr Helene Lavoix (MSc PhD Lond)

Dr Hélène Lavoix, PhD Lond (Relations internationales), est le directeur de The Red (Team) Analysis Society. Elle est spécialisée dans la prospective stratégique et l'alerte en matière de sécurité nationale et internationale. Elle se concentre actuellement sur l'intelligence artificielle, la science quantique et la sécurité. Elle enseigne au niveau Master à SciencesPo-PSIA.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les spams. En savoir plus sur la façon dont les données de vos commentaires sont utilisées.

FR
EN FR