«Robots tueurs» inquiète la communauté internationale. Du 13 au 17 novembre 2017, le Groupe d'experts gouvernementaux sur les systèmes d'armes autonomes létales (LAWS), également connu sous le nom de «robots tueurs», s'est réuni pour la première fois à Genève (Office des Nations Unies à Genève). Les lois sont en gros des systèmes autonomes (robots) animés par une intelligence artificielle, qui peuvent tuer sans décision humaine. Comme indiqué dans un document préliminaire, la création du groupe témoigne d'une préoccupation internationale "avec les implications pour la guerre d'une nouvelle série de technologies comprenant l'intelligence artificielle et l'apprentissage en profondeur" (UNODA Occasional Papers n ° 30, "Perspectives sur les systèmes d'armes autonomes létales«Novembre 2017: 1).

Sommes-nous cependant certains que l'IA aura un impact uniquement sur les lois? Ou plutôt, l'IA pourrait-elle avoir un impact beaucoup plus important que tout ce qui concerne la politique et la géopolitique?

Résumé

Pour présenter cette nouvelle section de la Société d'analyse (d'équipe) rouge sur l'avenir, l'IA, la politique et la géopolitique, nous commençons par donner des exemples de domaines et d'activités humaines impliquant déjà l'IA. Nous soulignons ensuite certaines des questions politiques et géopolitiques connexes qui se posent et que nous aborderons dans une analyse approfondie à venir. Comme la compréhension de l'IA est une condition préalable, cet article se concentre sur la présentation du domaine de l'IA, le prochain étant consacré à l'apprentissage en profondeur.

Ici, nous examinons d'abord l'IA en tant que capacité. Nous révisons la définition technique afin d’introduire l’agence, ce qui nous permet de signaler les peurs intrinsèques générées par l’IA. Nous utilisons des vidéos pour les illustrer. Nous identifions également un premier domaine d’intersection entre le développement de l’IA et la politique, lié à la «gouvernance de l’IA».

Nous expliquons ensuite que l'IA est aussi un domaine scientifique. Cette approche nous permettra notamment de trouver les scientifiques et les laboratoires travaillant sur l'IA, permettant ainsi de suivre les avancées et les évolutions en cours et d'anticiper parfois les percées.

Enfin, à l'intersection des capacités et du domaine scientifique, nous présentons les différents types de capacités d'IA que les scientifiques cherchent à atteindre et la manière dont ils abordent leurs recherches. Cela est crucial pour comprendre où nous en sommes, à quoi nous attendre et pour identifier les problèmes politiques et géopolitiques émergents. Nous expliquons d’abord la différence entre l’Intelligence Générale Artificielle (AGI) et l’IA étroite, en nous concentrant davantage sur la première, car les dernières avancées en matière d’IA étroite, c’est-à-dire l’apprentissage en profondeur, seront abordées dans le prochain article. Ici encore, nous utilisons des vidéos, cette fois du monde de la science-fiction, pour illustrer ce qu’est AGI et certaines questions connexes imaginées pour un monde où AGI existe. En synthétisant les sondages d’experts existants, l’estimation temporelle de la survenue d’AGI se situe au milieu du siècle. Nous terminons avec une brève présentation des types de méthodologie utilisés, l'IA symbolique, l'IA émergentiste et l'IA hybride, en soulignant la dominance de l'approche émergentiste actuelle.

Article complet 3065 mots - env. 12 PAGES

 

L’Intelligence Artificielle (IA) est devenue un sujet à la mode et un sujet à la mode dans le monde entier, suscitant l’attention des médias, des débats houleux entre magnats de l’informatique ainsi que des scientifiques, et incitant les entreprises à se doter des dernières avancées en matière d’IA, tout en capturant l’imagination populaire à la télévision spectacles. Les conférences et sommets mondiaux sur l'intelligence artificielle abondent: par exemple, Beijing Monde AI 2017人工智能 大会 (8 novembre 2017), Conférence mondiale sur la technologie à Beijing Baidu “Donner vie à l'IA”(16 novembre 2017), Boston Conférence mondiale et salon de l'IA (11-13 décembre 2017), Toronto Forum mondial d'IA (27 – 28 Novembre 2017), Londres Congrès d'IA (30-31 janvier 2018), le Série AI Summit, à Hong Kong (26 juillet 2017),  Singapour (3-4 octobre 2017), Londres (13-14 juin 2018), New York (5-6 décembre 2017), San Francisco (18-20 septembre 2018).

Il semblerait que l'intelligence artificielle révolutionne presque tout. Vie urbaine avec des villes intelligentes, conduite avec des voitures intelligentes et souvent autonomes, ou shopping avec l'utilisation de l'IA par des géants du commerce électronique tels qu'Amazon ou la société chinoise Alibaba, qui a réalisé la plus grande vente de son histoire avec un montant impressionnant de 163,8 milliards de RMB ou 25,3 milliards de dollars en une journée avec la fête des célibataires ont déjà commencé à changer (par exemple Jean-Michel Valantin, “La révolution de l'intelligence artificielle chinoise“, The Red (Team) Analysis Society, 13 novembre 2017; Jon Russell, “Alibaba bat son record du Single's Day avec des ventes dépassant les 25 milliards de dollars“, TechCrunch, 11 nov. 2017). L'industrie et la main-d'œuvre continuent d'évoluer et la peur du chômage et des licenciements humains est primordiale (par exemple, Daniel Boffey, «Les robots pourraient déstabiliser le monde par la guerre et le chômage, selon l'ONU“, The Guardian27 septembre 2017; UNICRI Centre d'Intelligence Artificielle et de Robotique, “Les risques et les avantages de l'intelligence artificielle et de la robotique“, Atelier sur les procédures à Cambridge, 6-7 février 2017). Depuis l’activité criminelle et son corollaire de la lutte contre le crime et de la prévention du crime jusqu’à la sécurité et à la défense nationales, AI est de plus en plus présent, évoquant des images de cyber-policiers derrière des écrans permettant d’arrêter des criminels du «filet obscur» et «Robots tueurs», comme avec LAWS et les drones de combat autonomes (par exemple Centre européen de lutte contre la cybercriminalité - EC3; Yuan Yang, Yingzhi Yang et Sherry Fei Ju, “La Chine cherche un aperçu de l'avenir des citoyens grâce à l'IA prédictive de la criminalité“, Financial Times23 juillet 2017; Chelle Ann Fuertes, “L'intelligence artificielle est l'avenir du cyber-arme des cybercriminels“; EdgyLabs, Septembre 2017).

Si la révolution est si profonde et si vaste, elle aura forcément un impact qui ira même au-delà de la compréhension pertinente mais toujours segmentée de ses conséquences, qui commence à se développer. Dans cette nouvelle section de la Société d'analyse (d'équipe) rouge, nous nous concentrerons sur l'avenir de ce monde alimenté par l'IA et sur ce que cela signifie en termes de politique et de géopolitique.

Imaginons que le futur leadership hautement probable de la Chine en matière d’intelligence artificielle (IA) commence à être perçu comme une menace par une Amérique qui se sent en déclin et qui devrait rester la seule superpuissance (Hélène Lavoix, «Signals: Domination de China World dans les supercalculateurs et vers une avance en intelligence artificielle“,The Red (Team) Analysis Society, 14 novembre 2017). Qu'est-ce qui signifierait l'escalade des tensions entre la Chine et les États-Unis impliquant l'IA et comment cela se déroulerait-il? Comment des IA différents «formés» interagiraient-ils, voire pas du tout, en cas de conflit?

Quels sont donc les risques, les dangers et les opportunités émergents, ainsi que les incertitudes cruciales résultant des luttes de pouvoir, de la politique et de la géopolitique dirigées par l'IA? De nouveaux dangers complètement imprévus et jusqu'ici inconnus pourraient-ils émerger, au-delà des lois? Y a-t-il un élément de vérité dans les avertissements de Science Fiction? A quoi pourrait ressembler le monde futur? Est-ce que l'ordre international pourrait être fondamentalement redessiné entre AI Haves et Has-nots? Qu'est-ce que le pouvoir dans un monde où l'IA est de plus en plus présente?

Ce sont quelques-unes des questions que nous allons explorer, alors que d’autres, plus précises, vont émerger de nos recherches.

Pour commencer, nous devons d'abord comprendre et définir mieux ce qu'est l'IA et quelles sont les conditions de son progrès et de son développement. Cela nous fournira la base fondamentale de cette section, ainsi que la capacité de surveiller et d’analyser l’horizon à la recherche d’évolutions et de percées. L’un des objectifs sera également d’éviter les surprises, car l’accent mis actuellement sur le succès d’un type d’IA - l’apprentissage en profondeur - ne devrait pas nous faire perdre de vue les progrès potentiels dans d’autres sous-domaines.

Ce premier article présente donc le domaine de l'intelligence artificielle et commence donc à identifier les zones d'intersection de l'intelligence artificielle avec la politique et la géopolitique. Le prochain article approfondira Deep Learning, c'est-à-dire le sous-domaine de l'IA qui connaît depuis 2015 les développements les plus rapides et les plus variés et qui risque fortement d'avoir un impact sur le monde politique et géopolitique futur.

Ici, présentant le domaine de l'IA et utilisant autant que possible des vidéos pour rendre la présentation plus réelle, nous examinons d'abord l'IA en tant que capacité. Nous révisons la définition technique afin d’introduire l’agence, ce qui nous permet de signaler les peurs intrinsèques générées par l’IA. Nous identifions également un premier domaine d'intersection entre le développement de l'IA et la politique, lié à la «gouvernance de l'IA». Nous expliquons ensuite que l'IA est aussi un domaine scientifique. et pourquoi cette approche est utile à notre prospective stratégique. Enfin, à l'intersection des capacités et du domaine scientifique, nous présentons les différents types de capacités d'IA que les scientifiques cherchent à atteindre et la manière dont ils abordent leurs recherches.

L'IA en tant que capacité

Encyclopaedia Britannica définit techniquement l'intelligence artificielle comme suit:

"L'intelligence artificielle (IA) est la capacité d'un ordinateur numérique ou d'un robot contrôlé par ordinateur à effectuer des tâches communément associées aux êtres intelligents." (BJ Copeland, "Intelligence artificielle (IA)“, Mise à jour le 12 janvier 2017).

En nous appuyant sur cette définition, nous y ajouterons une agence et une dynamique et aboutirons à la définition suivante:

L'intelligence artificielle (IA) est d'abord une capacité dont dispose un objet initialement inanimé, dès le début de la conception d'un être humain, et qui le fait en partie ou totalement se comporter comme un être intelligent. 

Notre définition ici met en évidence deux caractéristiques fondamentales qui effraient les êtres humains et que nous aurions manquées si nous nous étions arrêtés à la définition technique initiale.

Premièrement, les êtres humains, lors de la construction de l'IA, se comportent fondamentalement comme Dieu (s) ou modifient le dessein de la nature (selon son système de croyance et sa religion) en animant un objet qui se comporte (plus ou moins) comme lui-même ou être naturel intelligent. Dans ce cadre, l’homme commet ainsi un sacrilège. Ils brisent un tabou qui ne peut donc que conduire à leur punition. De cette croyance profonde naît une peur irrationnelle.

Deuxièmement, comme les nouvelles entités ainsi créées peuvent se comporter fondamentalement comme des êtres intelligents, elles pourront également agir de manière autonome - dans une certaine mesure - et même se reproduire. La peur de voir sa création se retourner contre soi-même, ou devenir moins tragique que devenir soi-même, est pourtant bien ancrée, ce que des sociétés pourtant centrées sur le moi et anthropocentriques peuvent avoir du mal à accepter.

Dans le même ordre d'idées, lorsque les nouvelles entités dotées d'intelligence artificielle ressemblent à des animaux, des peurs anciennes, ataviques et une fois oubliées, peuvent émerger, à plus forte raison si vous imaginez ces robots équipés de divers types d'appareils létaux. Ceci peut être illustré par cette vidéo du laboratoire Google Dynamics de Boston, qui présente les fonctionnalités «Spot».

Ces craintes très profondes sont cruciales et doivent être prises en compte car elles risquent fortement de biaiser toute analyse effectuée et tout jugement sur AI. Ils ne doivent pas être ni refusés, par exemple par une insistance exagérée sur une image tout à fait positive que l’on donnerait à l’IA, ni au contraire mis en avant. Pour tout ce qui concerne les éléments positifs et négatifs, il faut envisager autant que possible d'essayer de tirer parti des avantages tout en atténuant les dangers potentiels. Ne pas le faire ne pourrait que se retourner. Nous devons également garder ces craintes profondes à l'esprit, car elles pourraient bien contribuer à informer le comportement des acteurs à l'avenir, car l'IA risque de se propager.

Par exemple, rendre l'IA acceptable pour les citoyens et surmonter les peurs peut devenir une partie de la «gouvernance avec l'IA». La Chine, qui cherche à devenir une puissance de tête en intelligence artificielle, voire la première, ainsi qu’à utiliser celle-ci dans tous les domaines (Lavoix, «Signaux: China World Domination… "; Jean-Michel Valantin, “La révolution de l'intelligence artificielle chinoise », 13 nov. 2017, The Red (Team) Analysis Society), a fait un effort particulier pour expliquer l’IA à sa population avec un documentaire en 10 épisodes “À la recherche de l'intelligence artificielle”-人工智能》 - (Sun Media Group, diffusé en mai 2017) était destiné aux non-spécialistes et soulignait comment l'IA pouvait aider à résoudre les problèmes, tout en interrogeant des scientifiques du monde entier. Regardez le premier épisode ci-dessous, intitulé Contre-attaque-machine (mélange en mandarin et anglais) - Les prochains épisodes sont disponibles sur la page Youtube, colonne de droite.

L'enjeu peut même être encore plus grand si, passant d'une «peur apaisante» relativement simple, on passe à la mobilisation de toute une société en faveur de l'IA, comme cela semble être le cas en Chine. En effet, comme rapporté par le fonctionnaire Examen de Pékin«Ce [documentaire] séduit non seulement les scientifiques et les amateurs, mais motive également la société à explorer l'IA», a déclaré un internaute avec l'identifiant utilisateur Jiuwuhou Xiaoqing. »(Li Fangfang, “L'homme et la machine“, Examen de Pékin, NON. 25 juin 2017).

L'IA comme domaine scientifique

L'IA est également un domaine scientifique, défini comme suit:

"L'intelligence artificielle (IA) est la partie de l'informatique qui conçoit des systèmes informatiques intelligents, c'est-à-dire des systèmes qui présentent des caractéristiques que nous associons à l'intelligence dans le comportement humain - comprendre le langage, apprendre, raisonner, résoudre des problèmes, etc." ( Barr & Feigenbaum, Le manuel de l'intelligence artificielle, Stanford, Californie: HeurisTech Press; Los Altos, Calif.: William Kaufmann, 1981: 3).

En pensant à l'IA en ces termes, nous pourrons trouver les scientifiques et les laboratoires qui travaillent sur l'IA, ce qui nous permettra de surveiller les avancées et les évolutions en cours et, parfois, d'anticiper les avancées.

De plus, en examinant les diverses sous-disciplines constituant le domaine de l'IA, nous pourrons localiser les composants de l'IA (en tant que capacité cette fois-ci), ainsi quelles zones de politique susceptibles d'être transformées par l'IA, sachant que des combinaisons d'éléments alimentés par l'IA fonctionneront souvent.

Selon une étude JASON (groupe indépendant de scientifiques d'élite conseillant le gouvernement américain) parrainée par le secrétaire adjoint à la Défense pour la recherche et l'ingénierie (ASD R & E) au sein du bureau du secrétaire à la Défense (OSD) du ministère de la Défense (DoD) ( “Perspectives de la recherche sur l'intelligence artificielle et l'intelligence générale artificielle pertinentes pour le DoD“; Janvier 2017), les sous-disciplines de l'IA sont:

  • Vision par ordinateur;
  • Traitement du langage naturel (NLP);
  • Robotique (y compris les interactions homme-robot);
  • Recherche et planification;
  • Systèmes multi-agents;
  • Analyse des médias sociaux (y compris Crowdsourcing);
  • Représentation des connaissances et raisonnement (KRR)
  • Machine Learning «entretient une relation privilégiée avec l'IA» et est considérée comme la base des dernières avancées en matière d'IA.

Le type de capacité (s) d’IA dont notre objet inanimé est doté, ainsi que les objets concernés varient en fonction de la sous-discipline de l’IA ou de ses sous-disciplines, la plupart du temps, différents types de sous-disciplines et des domaines connexes. Les IA sont mélangés pour un seul objet.

Si nous restons dans le sous-domaine des robots, nous pouvons voir dans la vidéo ci-dessous un éventail de robots animaux alimentés par une IA, qui pourraient être utilisés pour un large éventail de tâches, des applications les plus bénignes aux plus meurtrières, si elles étaient: équipé d'un dispositif létal. Notez que pour la vidéo fascinante ci-dessous de Techzone, l’image de couverture - même si aucun cheval robot n’est présenté - joue sur les peurs intrinsèques des observateurs en choisissant un cheval noir aux yeux rouges. Ce dernier ne peut que rappeler aux observateurs le Nazgul Steed à Tolkien Le Seigneur des Anneaux, adapté au cinéma par Peter Jackson.

 

Types de capacités d'IA et de recherche

Intelligence artificielle générale (IGA) versus IA étroite

Le domaine est d'abord divisé en deux types de capacités que la recherche scientifique cherche à atteindre: intelligence artificielle générale (IGA), IA générale ou IA forte, d'une part, AI étroite, AI appliquée ou IA faible, de l'autre.

Intelligence générale artificielle (AGI)

JASON donne à Strong AI la définition suivante:

«L'intelligence artificielle générale (IGA) est un domaine de recherche au sein de l'IA, limité par le nombre de chercheurs ou le financement total, qui vise à construire des machines capables de mener à bien toute tâche qu'un humain pourrait accomplir». (Perspectives…, Janvier 2017)

L'AGI fait partie du sous-champ Représentation du savoir et raisonnement, selon JASON (p.5).

C'est ce type d'intelligence artificielle qui a le plus capté l'imagination humaine et qui suscite les pires craintes. Cela est mieux illustré dans la série télévisée (excellente, fascinante et lauréate de nombreux prix) Westworld (HBO)co-créé par Jonathan Nolan et Lisa Joy, où les robots sont presque impossibles à distinguer des êtres humains.

Des thèmes similaires liés à l'IA, bien que ceux-ci sans incarnation aient été en quelque sorte préfigurés dans la série télévisée 5 saisons forte Personne d'intérêt (CBS), également créé par Jonathan Nolan, avec la guerre entre «The Machine» et «Samaritan».

Nous rappelons également un thème similaire développé dans les séries plus anciennes de films et de séries télévisées, Terminateur (1984), avec un monde envahi par le système informatique «Skynet», alimenté par une intelligence artificielle, qui avait décidé d'éradiquer l'humanité. Plus récemment (2015), Avengers: l'ère d'Ultron A utilisé un récit similaire: le programme de maintien de la paix d'Amnesty International, «Ultron», en est venu à croire qu'il devait détruire l'humanité pour sauver la Terre. Ultron a non seulement repris des robots, mais a également créé son propre avatar. Dans Terminator comme dans Ultron, les modes de réalisation viennent en second lieu et sont le résultat et la création de l'IA initialement non incarnée. Nous sommes ici dans le cas encore plus effrayant où l'IA "se reproduit" et crée de nouvelles entités.

Il est intéressant de noter que l'énoncé des travaux de DoD / OSD / ASD (R & E) pour l'étude de JASON inclut des questions spécifiques sur le développement de Strong AI ou AGI, et que l'objectif de l'étude était de déterminer ce qui manquait à AGI. de voir le terrain tenir ses promesses (Annexe A, page 57). Cela indique que, début 2017, le département de la Défense des États-Unis était loin d'avoir abandonné le développement de l'IAG et, au contraire, il aurait pu envisager de renforcer ses efforts dans ce domaine. Pourtant, les recommandations de JASON sont les suivantes: «Le portefeuille du DoD dans AGI devrait être modeste et reconnaître qu’il n’est pas actuellement un domaine de l’IA en évolution rapide. Le domaine de l'augmentation humaine via l'IA est beaucoup plus prometteur et mérite un soutien important du DoD »(p.56).

Quand?

Dans une enquête de 2010 et un sondage de 2014, les chercheurs de l'AGI ont estimé que «l'AGI au niveau humain était susceptible de se produire avant 2050, et certains étaient beaucoup plus optimistes» et que «les systèmes d'AGI atteindraient probablement la capacité humaine globale (définie comme la« capacité de transport la plupart des professions humaines au moins aussi bien qu’un être humain typique ») vers le milieu du 21e siècle» (Ben Goertzel, 2015, Scholarpedia, 10(11):31847, en utilisant Baum et al, 2011 et).

D'une manière qui n'est pas contradictoire avec les estimations précédentes, mais semble plus négative parce que la période d'études s'arrête en 2030, un panel de 2015 à l'Université de Stanford travaillant sur le programme Étude de cent ans sur l'intelligence artificielle (AI100) estimé que

«Contrairement aux prévisions fantastiques d'IA dans la presse populaire, le groupe d'étude n'a trouvé aucune raison de craindre que l'IA soit une menace imminente pour l'humanité. Aucune machine avec des objectifs et une intention à long terme autonomes n'a été développée, et ils ne le seront probablement pas dans un proche avenir [2030]… »(Rapport du groupe d'étude de 2015,«Intelligence artificielle et vie en 2030”, Juin 2016: 4).

IA étroite, IA appliquée ou IA faible

De l'autre côté du spectre, on trouve l'IA étroite, l'IA appliquée ou l'IA faible, qui se concentre «sur la recherche de capacités discrètes ou de tâches pratiques spécifiques» (Goertzel 2015; Goertzel et Pennachin, 2005). En d’autres termes, l’objectif est «d’exécuter des tâches spécifiques aussi bien ou mieux que nous ne pouvons le faire (Michael Copeland,Quelle est la différence entre l'intelligence artificielle, l'apprentissage automatique et l'apprentissage en profondeur?“, NVDIA, Le 29 juillet 2016). La reconnaissance faciale sur Facebook, Google ou dans divers programmes Apple est un exemple de Narrow AI. iphone Apple Siri est un autre exemple d'IA étroite.

Cette approche domine désormais largement le domaine de l'IA (Goertzel 2015). En effet, en s’opposant à AGI, l’AI100 continue:

"Au lieu de cela, des applications de plus en plus utiles de l'IA, avec des impacts potentiellement potentiellement profonds sur notre société et notre économie, vont probablement émerger d'ici 2030", a-t-il déclaré.Intelligence artificielle et vie en 2030”, Ibid.)

C'est ici que se trouve Deep Learning, qui dirige actuellement la phase actuelle du développement exponentiel d'IA et sur lequel nous nous concentrerons dans le prochain article.

AI symbolique, AI émergentiste et IA hybride

Ensuite, le champ est également divisé en fonction du type de méthodologie utilisée pour obtenir des résultats.

L'approche descendante, également appelée approche symbolique, était la principale méthode utilisée jusqu'à la fin des années 1980. Il cherche à appréhender la cognition de manière indépendante de la structure organique du cerveau et est toujours utilisé (Copeland, 2017). Ses principales réalisations ont été les systèmes experts (Ibid.). Les travaux les plus récents se concentrent sur le développement «d'architectures cognitives sophistiquées», en utilisant notamment la «mémoire de travail» en s'inspirant de la «mémoire à long terme» (Goertzel, 2015).

L'approche ascendante ou connexionniste ou aussi émergente a été utilisée dans les années 1950 et 1960, puis a été négligée avant de redevenir importante dans les années 1980 (Copeland, 2017; Goertzel, 2015). Il est maintenant principalement axé sur la création de réseaux de neurones et constitue la méthodologie à l'origine des dernières avancées et de l'essor de l'IA.

Deep Learning, par exemple, se compose notamment de «réseaux multicouches de neurones formels», comme nous le verrons dans le prochain article. La robotique développementale utilise également l'approche émergentiste. Ici, on essaie de contrôler les robots en leur permettant «d'apprendre (et d'apprendre à apprendre, etc.) via leur engagement dans le monde» (Goertzel, 2015). Notamment, la «motivation intrinsèque» est explorée, c’est-à-dire que les robots apprennent à développer «des objectifs internes comme la nouveauté ou la curiosité, formant ainsi un modèle du monde au fur et à mesure, sur la base des exigences de modélisation impliquées par ses objectifs» (Ibid.). «Le travail de Juergen Schmidhuber dans les années 1990» est considéré comme fondamental dans ce domaine (Goertzel, 2015 en se référant à Schmidhuber, 1991).

Les travaux sur les systèmes hybrides, mélangeant les deux approches, ont commencé à émerger au cours de la première décennie du 21e siècle, y compris pour l'AGI (Goertzel, 2015).

Dans le prochain article, nous allons nous concentrer sur la révolution de «l'apprentissage en profondeur», en explorant ses composants et en commençant à examiner ses applications et ses utilisations.

—-

A propos de l'auteur: Dr Hélène Lavoix, PhD Lond (Relations internationales), est le directeur de la société d'analyse rouge (équipe). Elle est spécialisée dans la prospective stratégique et l'alerte en matière de sécurité nationale et internationale.

L'image sélectionnée: Titan, un système Cray XK7 à architecture hybride avec une performance maximale théorique dépassant les 27 000 milliards de calculs par seconde (27 pétaflops). Il contient à la fois des unités centrales de traitement (CPU) AMD Opteron à 16 cœurs et des unités de traitement graphique (GPU) NVIDIA Kepler. Il est installé au laboratoire national Oak Ridge du ministère de l'Énergie (DOE), et reste le plus grand système aux États-Unis, mais il est classé cinquième dans le classement. Top500 pour novembre 2017. À partir de Galerie de presse du laboratoire national Oak Ridge, Domaine public, recolorisé.

A propos de l'auteur: Dr Helene Lavoix (MSc PhD Lond)

Dr Hélène Lavoix, PhD Lond (Relations internationales), est le directeur de The Red (Team) Analysis Society. Elle est spécialisée dans la prospective stratégique et l'alerte en matière de sécurité nationale et internationale. Elle se concentre actuellement sur l'intelligence artificielle, la science quantique et la sécurité. Elle enseigne au niveau Master à SciencesPo-PSIA.

Rejoindre la conversation

1 commentaire

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les spams. En savoir plus sur la façon dont les données de vos commentaires sont utilisées.

FR
EN FR