Cet article se concentre sur les conséquences politiques et géopolitiques de la relation de rétroaction entre l'intelligence artificielle (IA) dans sa composante Deep Learning et la puissance de calcul - le matériel - ou plutôt la puissance de calcul haute performance (HPC). Il s'appuie sur une première partie où nous avons expliqué et détaillé ce lien.

Liens connexes

Intelligence artificielle, puissance de calcul et géopolitique (1): le lien entre l'IA et le HPC

Course et puissance du calcul haute performance - Intelligence artificielle, puissance de calcul et géopolitique (3): Le cadre complexe dans lequel les réponses disponibles aux acteurs en matière de HPC, compte tenu de son importance cruciale, doivent être situées.

Gagner la course à l'informatique à l'échelle industrielle - Intelligence artificielle, puissance de calcul et géopolitique (4) : La course à l'exascale informatique, état des lieux, et impacts sur le pouvoir et le (dés)ordre politique et géopolitique ; perturbations possibles de la course.

Nous y avons notamment souligné trois phases typiques où le calcul est nécessaire : la création du programme d'IA, la formation, et l'inférence ou la production (utilisation). Nous avons montré que la recherche d'amélioration à travers les phases, et l'importance primordiale et déterminante de la conception de l'architecture - qui a lieu pendant la phase de création - génère un besoin crucial de puissance de calcul toujours plus puissante. Parallèlement, nous avons identifié une spirale de rétroaction entre l'AI-DL et la puissance de calcul, où une puissance de calcul plus importante permet des avancées en termes d'IA et où la nouvelle IA et la nécessité de l'optimiser exigent une puissance de calcul plus importante. Sur la base de ces résultats, nous envisageons ici comment la spirale de rétroaction entre la puissance de calcul et les systèmes AI-DL est susceptible d'avoir un impact politique et géopolitique de plus en plus important.

Considérant ainsi l'importance cruciale et croissante de la puissance de calcul, nous aborderons dans le prochain article comment la course à la puissance de calcul pourrait se dérouler et a probablement déjà commencé. Nous y examinerons notamment une incertitude supplémentaire que nous avons identifiée précédemment, l'évolution et même la mutation du domaine de la puissance de calcul et du matériel informatique tel qu'il est touché par l'AI-DL.

Réservé aux membres

Télécharger l'article en pdf - Intelligence artificielle, puissance de calcul et géopolitique part-2.pdf- 12 pages

Adhérez et devenez membre de la société d'analyse The Red (Team).

Ici, nous imaginons d'abord les impacts politiques et géopolitiques auxquels sont confrontés les acteurs dont la puissance de calcul est insuffisante. Nous examinons ces conséquences potentielles en fonction des choix que font les acteurs. Nous nous concentrons sur la création même des systèmes d'IA et parlons plus brièvement de la phase de formation. Nous examinons ensuite la répartition de la puissance dans le monde émergent de l'IA en fonction de la puissance de calcul et soulignons une menace possible pour notre ordre international moderne actuel.

Vivre sans puissance de calcul haute performance à l'ère de l'intelligence artificielle : dépendance et perte de souveraineté

Il est plus facile de comprendre et d'imaginer pour l'avenir les impacts politiques et géopolitiques de la relation de rétroaction entre la puissance de calcul et l'intelligence artificielle - l'apprentissage en profondeur - lorsqu'on examine d'abord ce que pourrait entraîner l'absence de puissance de calcul ou plutôt le calcul haute performance.

Comme nous avons commencé à le souligner dans l'article précédent, le fait de ne pas disposer de la puissance de calcul nécessaire pour la phase de création des systèmes d'IA (phase 0 dans notre article précédent) de facto rendre les différents acteurs dépendants de ceux qui disposent de la puissance de calcul.

Ce à quoi nous sommes confrontés est une situation comparable à la fuite des cerveaux d'une nouvelle ère, ou plutôt à une déficience cérébrale initiale, qui interdit ou, à tout le moins, rend très difficile l'évolution. Comme le montre l'exemple détaillé de l'AutoML de Google (voir Quand l'AI a commencé à créer l'AI), si les réseaux neuronaux profonds créés par l'IA sont toujours ou la plupart du temps plus efficaces que ceux créés par les humains, alors les acteurs qui ne peuvent pas être les plus performants pendant cette phase initiale, lorsque les IA sont conçues, auront des IA moins efficaces, aucune IA, dépendra de la puissance de calcul externe pour créer leurs IA ou, pire, d'autres pour le programme de base même de l'AI-DL qu'ils utiliseront. Si ces systèmes d'IA sont essentiels pour leur gouvernance ou leur gestion, les impacts négatifs potentiels peuvent se répercuter sur l'ensemble du système. En conséquence, leur statut de puissance IA dans la distribution relative internationale de la puissance sera affecté trois fois : une fois en raison d'une gouvernance ou d'une gestion potentiellement sous-efficace de l'IA, une fois parce qu'ils ne peuvent pas exercer d'influence grâce à leurs systèmes IA optimaux et une fois parce qu'ils ne disposent pas de la puissance de calcul utile et nécessaire. L'impact sur l'influence internationale générale et le statut de puissance internationale suivra et découlera de tous les domaines où la gouvernance et la gestion de l'IA sont de plus en plus utilisées de manière positive, alors que seuls ceux qui disposent d'une puissance de calcul pourront en tirer pleinement parti. Nous examinerons plus en détail chacun des choix qui s'offrent aux acteurs qui ne disposent pas d'une puissance de calcul suffisante.

Nous supposons ici - et c'est effectivement une hypothèse très forte - que les effets négatifs potentiels et les conséquences involontaires de l'utilisation des systèmes d'IA pour la gouvernance et la gestion sont atténués. Notez que des scénarios détaillés seraient nécessaires pour passer de l'hypothèse à une meilleure compréhension de l'avenir dans toute la gamme des possibilités.

Par exemple, nous pouvons envisager une possibilité totalement opposée, selon laquelle les acteurs qui utilisent abondamment les systèmes d'IA ont complètement sous-estimé et mal géré les impacts négatifs et où, finalement, les acteurs qui n'avaient pas de puissance informatique et qui ont décidé de ne pas utiliser l'IA dans la gouvernance ou la gestion finissent par s'en sortir beaucoup mieux que leurs homologues qui utilisent l'IA.

Choix 1 : Pas de systèmes d'IA et acteurs non IA

Notamment si l'on considère le domaine encore émergent et en pleine évolution de l'IA, ainsi que le coût qu'il implique notamment en termes de puissance de calcul, on peut imaginer un scénario en termes d'interactions internationales dans lequel, par décision politique consciente ou par pure nécessité et contrainte, certains acteurs exempts d'IA développent finalement des avantages stratégiques, opérationnels et tactiques au niveau de la gouvernance ou de la gestion, qui leur permettent de mieux s'en sortir que les acteurs dotés d'IA. Il convient de rappeler ici la célèbre simulation de guerre Millenium Challenge 2002 - un exercice de simulation de guerre parrainé par le défunt U.S. Joint Forces Command - où une équipe rouge a-doctrinale (jouant "l'ennemi") a initialement remporté la victoire sur l'équipe bleue (les États-Unis), notamment en n'utilisant pas la technologie prévue (Micah Zenko, "Le défi du millénaire : la véritable histoire d'un exercice militaire corrompu et son héritage", War On The Rocks, 5 novembre 2015 ; Malcolm Gladwell, Clignez des yeux : Le pouvoir de penser sans penser(2005 : pp. 47-68).

Si les autorités politiques confrontées à un important déficit de puissance de calcul font le choix conscient et volontaire de décider d'exclure l'IA, alors, en plus de la possibilité de développer des avantages inattendus - qui n'est cependant en aucun cas une donnée - évoquée ci-dessus, elles pourront peut-être essayer de capitaliser sur cette stratégie. Par analogie, toutes choses égales par ailleurs, nous pouvons réfléchir à ce que le Bhoutan a décidé en termes de politique nationale. Le pays - c'est vrai, jusqu'à présent, largement "guidé" par l'Inde en termes de relations extérieures, avec une révision du traité d'amitié indo-bhoutanais en 2007, et par un système international où la paix a plutôt prévalu comme une norme depuis la fin de la deuxième guerre mondiale, malgré une réalité plus sombre - a choisi une spécificité culturelle "soulignant officiellement la spécificité bhoutanaise" pour le développement, renonçant à une folle quête de modernité et érigeant cette spécificité en fierté, politique et atout national (Syed Aziz-al Ahsan et Bhumitra Chakma, "La politique étrangère du Bhoutan : Une affirmation de soi prudente ?“, Enquête sur l'Asie, vol. 33, n° 11 (novembre 1993), p. 1043-1054.

En l'absence de cette approche réfléchie et planifiée, qui, en outre, pourrait ne pas rester viable à moyen terme et même à plus court terme dans un ordre international en mutation, ni être adaptable à chacun des acteurs, gouverner sans IA pourrait bientôt devenir complexe. En effet, si de nombreux domaines de gouvernance impliquent de plus en plus de systèmes d'IA dans la plupart des pays, un "pays non AI", lorsqu'il interagit avec d'autres pays sur une multitude de questions au niveau international, peut rapidement être confronté à des défis, allant de la vitesse de réaction et de la capacité à traiter les données, à l'incapacité de communiquer et à l'incompréhension en raison des différentes façons de traiter les problèmes (avec ou sans IA). Les entreprises qui n'ont pas recours à l'IA seraient très probablement confrontées à des difficultés similaires, d'autant plus si elles sont situées dans des pays où l'IA est encouragée par les autorités politiques. Dans ce cas, ces entreprises non-AI devraient très probablement se tourner vers l'AI, à supposer qu'elles le puissent, ou disparaître.

Choix 2 : systèmes d'IA sous-optimaux

Des problèmes similaires, avec des obstacles encore plus importants, peuvent survenir si l'absence ou l'insuffisance de la puissance de calcul conduit à l'utilisation d'une IA sous-optimale.

Tous les domaines de la gouvernance ou de la gestion où une IA moins efficace est utilisée peuvent être touchés.

Par moins efficace, on couvre un très large éventail de problèmes allant de l'inefficacité énergétique à la diminution de la précision en passant par la vitesse, c'est-à-dire tous les éléments pour lesquels une recherche d'optimisation et d'amélioration est en cours, comme nous l'avons vu précédemment (voir "Intelligence artificielle, puissance de calcul et géopolitique (1)", partie 3).

Imaginez, par exemple, que des drones, capables de porter des armes et de tirer, utilisent des systèmes d'IA pour la détection d'objets (par exemple avec le NASNet créé par Google, voir "Quand l'IA a commencé à créer l'IA".). Si votre système de détection d'objets est moins efficace que celui utilisé par l'adversaire, votre drone peut être détruit avant même d'avoir commencé à faire quoi que ce soit. Il peut également être piégé par toute une série de leurres.

intelligence artificielle, ville intelligente, géopolitique, IA, conducteur, scénarios, alerte stratégique, apprentissage approfondi puissance de calcul haute performance, analyse des risques, gestion des risques, prospective stratégique, société d'analyse Red Team, indicateur, drones, LOIS
"Pour prendre le dessus sur un champ de bataille qui devrait être complexe et multidimensionnel", le laboratoire de recherche de l'armée américaine, "l'ARL développe des armes interconnectées qui intégreront les progrès de la détection, de l'informatique et de la navigation partagées". Image par Evan Jensen, ARL - du Dr Frank Fresconi, Dr Scott Schoenfeld et Dan Rusin, Lieutenant Colonel, USA (Ret.), "On Target", numéro de janvier - mars 2018 du magazine Army AL&T, Public Domain.

On pourrait même imaginer que la puissance de calcul supérieure de l'ennemi, ayant permis de créer des systèmes d'IA meilleurs et plus nombreux, pourrait avoir la capacité d'alimenter en informations fausses ou légèrement biaisées le drone sous-optimal, amenant ce dernier à cibler exclusivement les troupes et le matériel de sa propre armée. Ici, même avec la meilleure volonté du monde, l'acteur déficient en puissance de calcul ne peut pas - il n'en a vraiment pas la capacité - se protéger ni devancer ce que la puissance de calcul supérieure et donc, de facto, les IA peuvent créer et faire. De plus, parce que les IA créent des stratégies spécifiques à l'IA et qui ne sont généralement pas imaginées par les humains, comme le montre la série de programmes d'IA de Google consacrés au jeu de Go (voir "Intelligence artificielle et apprentissage approfondi - Le nouveau monde de l'IA en devenir"), il est probable que, comme dans l'exemple offensif imaginé ci-dessus, seules des IA efficaces et optimales pourront contrer les IA.

Ce n'est qu'un exemple, mais il peut être décliné sur tout le spectre des objets alimentés par l'IA, comme l'Internet des objets (IoT).

Choix 3 : IA optimale mais créée sur une puissance de calcul externe

Tournons-nous maintenant vers un acteur qui ne dispose pas d'une puissance de calcul suffisante, mais qui a la volonté de développer et d'optimiser ses propres systèmes d'IA - en supposant que cet acteur dispose également des autres ingrédients nécessaires pour le faire, comme les scientifiques par exemple.

Cet acteur n'aura peut-être pas d'autre choix que d'utiliser la puissance de calcul des autres. Cet acteur devra payer pour cette utilisation, que ce soit en termes monétaires, s'il utilise des installations commerciales, ou en termes d'indépendance si, par exemple, des accords de coopération spécifiques sont imaginés. Cela peut ou non impliquer des responsabilités en matière de sécurité selon les acteurs, les fournisseurs de puissance de calcul et l'objectif spécifique des systèmes d'IA développés.

En termes de sécurité nationale, par exemple, peut-on vraiment imaginer qu'un ministère de la défense ou un ministère de l'intérieur développe des systèmes d'IA hautement sensibles sur une installation informatique commerciale ?

En fait, oui, on peut l'imaginer car, déjà, l'armée américaine passe "au nuage avec l'aide de l'industrie", avec, par exemple, le "Joint Enterprise Defense Infrastructure (JEDI)", qui sera finalement attribué à l'automne 2018 (par exemple "L'armée se modernise et migre vers le cloud computing“, Électronique militaire et aérospatiale20 mars 2018 ; Frank Konkel, "Le nuage commercial du Pentagone sera une récompense unique et l'industrie n'est pas contente“, NextGov7 mars 2018 ; LTC Steven Howard, armée américaine (retraité), "Le DoD attribuera le contrat de l'infrastructure de défense commune en nuage à l'automne 2018“, Cyberdéfense23 mai 2018). Ce nuage devrait être utilisé pour la guerre et "une société commerciale" - probablement Amazon - sera "chargée d'héberger et de distribuer les charges de travail critiques et les secrets militaires classés aux combattants du monde entier" (Howard, Ibid ; Frank Konkel "Comment un contrat du Pentagone a déclenché une guerre des nuages“, NextGov26 avril 2018). Le JEDI pourrait être attribué à Amazon au cours de l'automne 2018 (Ibid.). Il est vrai que nous ne savons pas si ce nuage sera également utilisé comme architecture distribuée pour créer des systèmes d'intelligence artificielle, mais c'est possible. L'utilisation de sociétés commerciales pour la gouvernance, d'autant plus si l'objectif est lié à la défense, exige que les sociétés commerciales assument une mission de sécurité qui était, jusqu'à récemment, une prérogative de l'État. Le pouvoir ainsi conféré à une société commerciale rend d'autant plus la dynamique politique américaine. Notamment, le complexe militaro-industriel d'Eisenhower pourrait bien être en train de changer (par exemple, "Discours du complexe militaro-industriel"Dwight D. Eisenhower, 1961, Avalon Project, Yale).

Maintenant, il s'agit de la sécurité américaine, privatisée au profit d'entreprises américaines. Cependant, le Pentagone attribuerait-il de tels contrats à des entreprises chinoises ou européennes ?

De même, on peut se demander si la création de systèmes d'IA peut se faire sur des super ordinateurs commerciaux appartenant à des sociétés étrangères, et/ou localisés à l'étranger. Cela est d'autant plus vrai si la société étrangère est déjà sous contrat avec une armée étrangère ou un ministère de la défense, car dans ce cas, l'armée étrangère a un pouvoir de coercition plus important sur les sociétés commerciales : elle peut menacer de suspendre le contrat ou de retarder le paiement si la société commerciale ne fait pas son offre, quelle qu'elle soit.

La possibilité de faire face aux piratages et autres vulnérabilités de sécurité augmente rapidement.

Un phénomène similaire peut également se produire pour les éléments constituant la puissance de calcul, tels que les puces fabriquées à l'étranger, comme l'ont récemment montré deux chercheurs du département de génie électrique et informatique de l'université américaine de Clemson, en soulignant les vulnérabilités de la chaîne d'approvisionnement en puissance de calcul pour l'apprentissage machine (Joseph Clements et Yingjie Lao, "Attaques de troyens matériels sur les réseaux neuronaux"(voir le document de travail de la Commission sur les droits de l'homme, arXiv:1806.05768v1 [cs.LG] 14 juin 2018).

L'utilisation de l'architecture distribuée, c'est-à-dire la puissance de calcul répartie sur diverses machines, comme dans l'exemple du JEDI ci-dessus, qui peut être envisagée jusqu'à un certain point pour compenser l'absence de super ordinateurs, non seulement multiplie la puissance nécessaire (voir Intelligence artificielle, puissance de calcul et géopolitique (1)), mais ouvre également la porte à de nouveaux dangers, car les données circulent et chaque ordinateur du réseau doit être sécurisé. Ce n'est donc peut-être pas un moyen aussi facile de se sortir d'une déficience de la superpuissance informatique.

En dehors du domaine de la cybersécurité, l'utilisation de la puissance de calcul d'autrui ouvre également la porte à des vulnérabilités très simples : une série de sanctions du type de celles préconisées par les États-Unis, par exemple, peut soudainement interdire à tout acteur, public ou privé, l'accès à la puissance de calcul nécessaire, même si le fournisseur est une entité commerciale. L'acteur dépendant peut en fait être tellement dépendant du pays hôte de la puissance de calcul qu'il a perdu une grande partie de sa souveraineté et de son indépendance.

Cela vaut également pour les entreprises, si elles confient leur destin à d'autres pays et concurrents - sans politique adéquate de diversification de l'offre de puissance de calcul, à supposer que cela soit possible - comme le montre l'exemple de ZTE et des sanctions américaines, même si l'affaire concerne plus d'éléments que la puissance de calcul (par exemple Sijia Jiang, "Les actions de ZTE à Hong Kong augmentent après la clarification de l'impact de la loi américaine“, Reuters20 juin 2018 ; Erik Wasson, Jenny Leonard et Margaret Talev ".Les sanctions sont suffisantes, selon un fonctionnaire“, Bloomberg,20 juin 2018 ; Li Tao, Celia Chen, Bien Perez, "La ZTE est peut-être trop grande pour échouer, car elle reste le dernier maillon de la chaîne de l'ambition technologique mondiale de la Chine“, SCMP21 avril 2018 ; Koh Gui Qing, "Exclusif - Les États-Unis envisagent de resserrer l'étau sur les liens entre la Chine et les entreprises américaines“, Reuters, 27 avril 2018).

Choix 4 : Des IA optimales mais créées par d'autres

Enfin, l'utilisation de systèmes d'IA conçus et créés par d'autres peut également entraîner des vulnérabilités et une dépendance similaires, ce qui peut être acceptable pour les entreprises qui utilisent des produits de grande consommation, mais pas pour des acteurs tels que les pays lorsque l'intérêt national et la sécurité nationale sont en jeu, ni pour les entreprises lorsque des zones sensibles sur le plan de la concurrence sont en jeu (en particulier lorsqu'elles sont confrontées à des pratiques prédatrices, voir "Au-delà de la fin de la mondialisation - du Brexit au président américain Trump“, L'analyse rouge (équipe)le 27 février 2017).

Nous avons déjà évoqué l'influence acquise par ceux qui peuvent vendre de tels systèmes et les risques supportés par ceux qui les achètent et les utilisent dans le cas de la Chine qui ".a exporté la technologie d'identification faciale au Zimbabwe” (Global Times(12 avril 2018), dans "Les grandes données, moteur de l'intelligence artificielle... mais pas dans le futur ?" (Hélène Lavoix, L'analyse rouge (équipe)16 avril 2018).

Prenons un autre exemple avec les futures villes intelligentes. Nous pouvons imaginer qu'un pays, non doté d'une puissance de calcul suffisante, doive compter sur la puissance de calcul ou directement sur des systèmes d'IA étrangers pour ses villes. La vidéo ci-dessous, bien qu'elle ne soit pas axée sur l'IA, donne une idée de la tendance vers des villes connectées et "intelligentes".

Or, sachant qu'en temps de guerre, les opérations urbaines sont considérées comme une composante majeure de l'avenir (par exemple, le Royaume-Uni Programme de tendances stratégiques du DCDC : Environnement opérationnel futur 2035(2-3, 25), il est très probable que les opérations urbaines se dérouleront de plus en plus dans des villes intelligentes et équipées d'une IA. Pour mieux imaginer ce qui risque de se passer à l'avenir, nous devrions donc juxtaposer mentalement la vidéo et les images de combat urbain ci-dessous, créées par le laboratoire de recherche de l'armée américaine. En d'autres termes, au lieu d'un arrière-plan traditionnel du "monde moderne" dévasté pour les images de l'armée, nous devrions avoir une ville intelligente, alimentée par l'IA, comme arrière-plan.

intelligence artificielle, ville intelligente, géopolitique, IA, conducteur, scénarios, alerte stratégique, apprentissage approfondi puissance de calcul haute performance, analyse des risques, gestion des risques, prospective stratégique, société d'analyse Red Team, indicateur, drones, LOIS
Images de l'ARL américaine - Utilisées dans l'article du Dr Alexander Kott, "The ARTIFICIAL Becomes REAL", pp. 90-95, Army-ALT janvier-mars 2018.

intelligence artificielle, ville intelligente, géopolitique, IA, conducteur, scénarios, alerte stratégique, apprentissage approfondi puissance de calcul haute performance, analyse des risques, gestion des risques, prospective stratégique, société d'analyse Red Team, indicateur, drones, LOIS

Or, si un acteur étranger a créé les systèmes d'IA qui gèrent la ville alimentée par l'IA, qu'est-ce qui empêche cet acteur d'inclure potentiellement des "éléments" qui joueraient en sa faveur si ses troupes devaient à l'avenir mener des opérations offensives dans cette même ville ?

Ou, autre exemple, si des autorités politiques stratégiquement sages voulaient doter leurs villes d'une défense à base d'IA, capable de contrer les attaques traditionnelles et celles à base d'IA, mais que ces mêmes autorités politiques n'avaient pas la puissance informatique nécessaire pour développer de tels systèmes, les sociétés commerciales étrangères seraient-elles autorisées par leurs propres autorités politiques à développer de tels systèmes ?

Dans un monde alimenté par l'IA, la souveraineté et l'indépendance deviennent dépendantes de la puissance de calcul.

L'absence de puissance de calcul pour la phase de formation du système d'IA correspond en quelque sorte à un pays qui n'aurait pas de système d'éducation et devrait s'en remettre entièrement à des sources extérieures et étrangères pour dispenser cette éducation. Cela est vrai pour l'apprentissage supervisé lorsqu'une formation sur de grands ensembles de données doit être dispensée et ne fait qu'accroître les obstacles déjà identifiés précédemment dans  Big Data, moteur de l'intelligence artificielle... Cela est également vrai, comme nous l'avons vu précédemment (partie 1), car le renforcement de l'apprentissage car la puissance de calcul est encore plus importante pour ce type d'apprentissage profond, même s'il ne nécessite pas de grosses données externes. Cela pourrait-il être vrai aussi avec les dernières L'approche de Google Deep Mind, Transfert d'apprentissage? Cette question devra être examinée plus tard, avec une plongée en profondeur dans cette dernière approche AI-DL.

Répartition de la puissance dans le monde AI, puissance de calcul à haute performance et menace pour le système westphalien ?

En conséquence, la Liste des Top500 de supercalculateurs, qui est produit tous les deux ans, et donc classé tous les six mois parmi les supercalculateurs du monde entier, devient une indication et un outil précieux pour évaluer la puissance IA présente et future des acteurs, qu'il s'agisse d'entreprises ou d'États. Il nous donne également une image assez précise de la puissance sur la scène internationale.

Par exemple, selon le Liste des Top500 de novembre 2017 (le prochain numéro a été présenté le 25 juin 2018, et rendu public après la publication de cet article - attention à un signal sur la liste de juin 2018), et en supposant que tous les supercalculateurs aient été soumis à l'évaluation de la liste, dans l'ensemble du Moyen-Orient, seule l'Arabie saoudite possède des supercalculateurs parmi les 500 ordinateurs les plus puissants du monde. Elle en possède quatre, classés 20, 60, 288 et 386. Les trois derniers appartiennent à la compagnie pétrolière Aramco. Le supercalculateur le plus puissant d'Arabie saoudite offre une performance de 5,5 pétaflops, soit près de 17 fois moins que l'ordinateur le plus puissant de Chine et 36 fois moins que le nouveau Summit des États-Unis (voir pour plus de détails sur Summit, Quand l'AI a commencé à créer l'AI). Si l'Arabie saoudite veut être indépendante en termes d'IA, elle devra élaborer une stratégie lui permettant de surmonter un éventuel manque de capacité en termes de puissance de calcul. La situation est encore plus difficile pour un pays comme les E.A.U. qui, malgré la volonté de développer l'I.A., ne dispose d'aucun supercalculateur (Stratégie AI 2031 des E.A.U. - vidéo).

En attendant, autre exemple, NVIDIA a mis en ligne en 2016 le supercalculateur DGX Saturn V, qui s'est classé 36ème en novembre 2017 et qui offre une performance de 3,3 pétaflops, mais qui est construit en tenant compte de la DL. Ajouté à son autre supercalculateur, DGX SaturnV Volta, cela signifie que NVIDIA a une puissance de calcul égale à 4,37 pétaflops donc supérieure à celle de la Russie, avec ses trois supercalculateurs classés 63, 227, 412 et affichant respectivement des performances de 2,1 ; 0,9 et 0,7 pétaflops. A noter que le dernier accélérateur GPU de NVIDIA, NVIDIA DGX-2 et ses 2-petaFLOPS ne peuvent que renforcer le pouvoir de l'entreprise (voir partie 1). En termes de puissance internationale, bien sûr, la Russie bénéficie des attributs et des capacités d'un État, notamment son monopole de la violence, que NVIDIA n'a pas. Cependant, en imaginant, comme cela semble être le cas, que le nouveau monde AI en construction intègre de plus en plus l'AI dans l'ensemble des fonctions et de la gouvernance de l'État, la Russie serait alors confrontée à une nouvelle dépendance ainsi qu'à de nouveaux défis de sécurité découlant de sa puissance informatique relativement faible. Pour sa part, NVIDIA - ou d'autres sociétés - pourrait progressivement prendre le relais des fonctions étatiques, comme le montre l'exemple ci-dessus du JEDI de la défense américaine. Si l'on se souvient de la British East India Company, ce ne serait pas la première fois dans l'histoire qu'une entreprise se comporte comme un acteur dominant.

Voici les principes mêmes de notre monde westphalien moderne qui pourraient potentiellement changer.

Toutefois, les choses sont encore plus complexes que le tableau que nous venons de décrire, car le domaine matériel même est également touché par la révolution AI, comme le montre le première partie. Si l'on considère ces évolutions et changements matériels, où est la puissance de calcul nécessaire et, plus difficile, où sera-t-elle ? 

En outre, si la puissance de calcul haute performance est si importante, alors que peuvent décider les acteurs pour y remédier ? Ils peuvent construire et renforcer leur puissance de calcul, refuser la puissance de calcul des autres ou trouver des stratégies alternatives ? C'est ce que nous verrons ensuite, parallèlement aux changements dans le domaine du matériel informatique.

À propos de l'auteur: Dr Hélène LavoixM. Lond, PhD (relations internationales), est le directeur de la Red (Team) Analysis Society. Elle est spécialisée dans la prévision et l'alerte stratégiques pour les questions de sécurité nationale et internationale.

Image en vedette : Illustration de l'armée américaine : "La recherche de l'armée explore des technologies individualisées et adaptatives visant à améliorer le travail d'équipe au sein d'équipes hétérogènes d'agents intelligents", dans le laboratoire de recherche de l'armée américaine (ARL), "Des chercheurs de l'armée font progresser l'association d'agents humains et intelligents", domaine public.

Publié par Dr Helene Lavoix (MSc PhD Lond)

Dr Hélène Lavoix, PhD Lond (relations internationales), est le président/CEO de la Red Team Analysis Society. Elle est spécialisée en prospective et alerte précoce stratégiques (S&W) pour les questions de sécurité nationale et internationale. Elle se concentre actuellement sur la pandémie de COVID-19, la méthodologie du SF&W, la radicalisation ainsi que les problématiques d'intelligence artificielle et de technologie quantique du point de vue de la sécurité internationale. Elle enseigne au niveau du master à SciencesPo-PSIA.

Rejoindre la conversation

2 commentaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

FR