Au-delà du battage médiatique et de la haine, cet article se concentre sur la façon dont l’Intelligence Artificielle (IA) - en réalité L'apprentissage en profondeur - est intégré dans la réalité, à travers un capteur et un actionneur. * L'opérationnalisation exige de développer une manière différente de regarder l'IA. La compréhension qui en résulte permet de souligner l’importance du capteur et de l’actionneur, l’interface double entre l’IA et son environnement. Cette interface est un pilote potentiellement perturbateur pour l'IA.

Capteur et actionneur, les éléments oubliés

Capteur et actionneur sont essentiels pour le développement de l'IA à tous les niveaux, y compris en termes d'applications pratiques. Cependant, lorsque l'expansion et l'avenir de l'IA sont abordés, ces deux éléments sont la plupart du temps négligés. C'est notamment à cause de ce manque d'attention que l'interface peut devenir perturbatrice. En effet, une approche par capteur et actionneur pour l'IA pourrait-elle être la clé du boom très généralisé recherché par tant de gens? Entre-temps, de nombreux sous-domaines de l'IA pourraient également bénéficier de ce développement ultérieur. Sinon, le fait de ne pas intégrer complètement cette approche pourrait entraîner des obstacles inutiles, notamment une récession temporaire.

Capteur et actionneur, un autre enjeu de la course à l'IA

Connecté

Intelligence artificielle - Forces, moteurs et enjeux

Nous avons examiné en tant que conducteurs: Big Data, Puissance de calcul - Puissance de calcul (1) et la (2), Gagner la course à l'informatique exascale, Science de l'information quantique - La prochaine perturbation de l'informatique quantique (1), Cartographie de la course à l'informatique quantique.

L'informatique quantique est très perturbatrice. En effet, il est fort probable (80%) que ce n’est pas seulement l’IA qui déterminera notre monde futur, mais plutôt l’émergence de Quantum-AI. Voir notre nouvelle section consacrée à la Perturbation quantique.

De plus, nous assistons à l’émergence de trois dynamiques en interaction avec l’IA dans le monde. La double naissance et la propagation de la gouvernance de l'IA pour les États et de la gestion de l'IA pour les acteurs privés interagissent et alimentent une course internationale pour le pouvoir de l'IA, à savoir comment on se situe dans la répartition relative du pouvoir dans le monde. De ce fait, l'IA influence de plus en plus cette distribution même du pouvoir (voir Le nouveau monde de l'IA en devenir). Ainsi, les pilotes de l'IA ne sont pas seulement des forces derrière l'expansion de l'IA, mais aussi des participations dans la compétition de l'IA. Entre-temps, la manière dont les acteurs publics et privés gèrent cette compétition, la dynamique qui en résulte, entraînant défaites et victoires, façonnent également le nouveau monde de l'IA en devenir.

Ainsi, si les capteurs et les actionneurs sont essentiels pour une opérationnalisation à grande échelle de l'IA, la capacité de développer au mieux la gouvernance et la gestion de l'IA, ainsi que la position dans la course internationale à la puissance de l'IA, pourraient également très bien dépendre de la maîtrise de ces capteur et actionneur.

Contour

Cet article utilise deux études de cas pour expliquer progressivement ce que sont le capteur et l'actionneur. Il détaille ainsi la double interface entre l'agent AI et son environnement. En conséquence et troisièmement, nous soulignons que l’on comprend au mieux une IA comme une séquence. Cette compréhension nous permet d’envisager tout un monde futur d’activités économiques. Ce monde n’est cependant pas sans danger et nous soulignons qu’il exigera un nouveau type de sécurité. Enfin, nous soulignerons la nécessité de distinguer les types de réalité des ponts de séquence d'IA.

Le prochain article portera sur différentes manières de gérer la séquence d'intelligence artificielle et son interface double, notamment l'actionneur. Nous nous intéresserons plus particulièrement à l'Internet des objets (IoT), aux êtres humains eux-mêmes et aux systèmes autonomes, mieux connus sous le nom de robots. En attendant, nous explorerons plus avant les nouvelles activités créées par AI.

Regarder le jeu contre AlphaGo différemment

Nous allons examiner à nouveau (Google) DeepMind AlphaGo, l'agent d'apprentissage supervisé / IA qui joue Go et dont la victoire a lancé la phase actuelle de développement de l'IA.

Rejouer le jeu contre AlphaGo

Imaginons maintenant qu’un nouveau jeu se joue entre M. Fan Hui, le champion européen Go AlphaGoGo battu par une victoire de 5-0 en octobre 2015 et l’agent de l’IA (AlphaGo page Web). Comme dans la réalité, M. Fan Hui joue en premier contre l’agent AlphaGo. En face de lui, on peut voir un goban (le nom du tableau pour le départ). AlphaGo est connecté au cloud pour accéder à la puissance de calcul distribuée, car il nécessite beaucoup de puissance de calcul.

M. Fan Hui commence et pose pour la première fois une pierre blanche sur le Goban. Et puis c'est au tour d'AlphaGo. Quelle sera la réponse de l'agent d'IA? Fera-t-il un geste typique ou quelque chose d'original? Combien de temps va-t-il alors jouer? Le suspens est immense, et…

Rien ne se passe.

Qu'est ce qui ne s'est pas bien passé?

La (bonne) façon dont DeepMind l'a fait

Si vous regardez attentivement la vidéo ci-dessous illustrant le jeu original, vous remarquerez qu’en réalité le réglage ne correspond pas exactement à ce que j’ai décrit ci-dessus. Deux autres éléments cruciaux sont présents. Si DeepMind avait confronté un agent humain et un agent d'intelligence artificielle conformément au cadre décrit, leur expérience aurait mal tourné. Au lieu de cela, grâce aux éléments qu'ils ont ajoutés, leur jeu a été un succès.

Vous pouvez observer ces trois éléments à 1:19 de la vidéo, comme indiqué dans la capture d'écran annotée ci-dessous:

  • A: un joueur humain
  • B: un écran
  • C: un être humain avec un appareil bizarre sur une table.
Capture d'écran de la vidéo Google DeepMind: AlphaGo révolutionnaire maîtrise le jeu de Go - 1:19

Capteur

Dans notre environnement imaginaire, je n'ai pas créé d'interface pour dire à l'agent de l'IA que M. Hui avait déplacé une pierre et laquelle. Ainsi, en ce qui concerne l'agent de l'IA, il n'y avait aucune entrée.

Dans le cadre réel de DeepMind, nous avons l'agent humain (C). Nous pouvons supposer que le dispositif étrange sur la table devant elle lui permet d'entrer dans l'ordinateur pour l'agent IA les mouvements que M. Fan Hui fait tout au long du match.

Plus généralement, une première interface d'entrée doit exister entre le monde réel et l'agent AI pour le voir fonctionner. Par conséquent, nous avons besoin de capteurs. Ils sentiront le monde réel de l'IA. Nous devons également communiquer à l'agent IA les données capturées par les capteurs, de manière à ce que l'IA comprenne.

Supposons maintenant que nous ajoutions l’agent C et son périphérique - c’est-à-dire le système de capteurs - à notre configuration.

Encore une fois, rien ne se passe.

Pourquoi? L'agent IA procède et décide de son déménagement. Cependant, le résultat algorithmique reste dans l'ordinateur, en tant que sortie machine, quelle que soit sa forme. En effet, il n'y a pas d'interface pour agir dans le monde réel. Ce qu'il faut, c'est un actionneur.

Actuateur

L’interface avec le monde extérieur doit non seulement produire un résultat que notre maître Go peut comprendre pour chaque coup, mais aussi un résultat qui aura un sens pour lui tout au long du match.

Il ne suffirait pas d’obtenir la position d’une pierre selon les coordonnées au tableau. Ce type de résultat exigerait d’abord que M. Fan Hui dispose d’une bonne capacité de visualisation et de cartographie pour traduire ces coordonnées sur le goban. Deuxièmement, notre champion de Go devrait avoir une très bonne mémoire. En effet, après quelques mouvements, il serait difficile d’imaginer et de se souvenir du jeu dans son intégralité.

DeepMind a en fait utilisé les actionneurs nécessaires pour rendre possible le jeu entre l'homme et l'IA.

En (B), nous avons un écran qui affiche le jeu entier. Il est également fort probable que l’écran indique le mouvement de l’agent AI à chaque fois que ce dernier joue. Ensuite, en (A), nous avons un agent humain, qui traduit le jeu virtuel à l'écran en réalité sur le goban. Pour ce faire, il copie le mouvement de l'agent IA affiché à l'écran en plaçant la pierre correspondante sur le tableau.

Il est important de noter la présence de cet être humain (A), même si ce n'était probablement pas vraiment nécessaire pour M. Fan Hui, qui aurait pu jouer devant l'écran. Premièrement, il s’agit d’un moyen de communication permettant de rendre l’ensemble de l’expérience plus compréhensible et plus intéressante pour l’audience. Ensuite, il est peut-être plus facile pour M. Fan Hui de jouer sur un vrai goban. La traduction d'un monde virtuel à un monde réel est cruciale. Ce sera probablement un enjeu majeur dans ce qui permettra réellement à l'IA d'émerger et de se développer.

Comme nous l'avons montré plus haut, la spécification du processus d'interaction avec un agent d'intelligence artificielle souligne l'importance des interfaces doubles.

C’est ainsi que DeepMind a conceptualisé l’une de ses dernières réalisations en matière d’IA, vers laquelle nous allons maintenant nous tourner.

Vers voir en tant qu'être humain

En juin 2018, DeepMind expliqua comment il avait construit un agent d’IA capable de percevoir son environnement de la même manière que les êtres humains le font (accès ouvert; SM Ali Eslami et al., “Représentation et rendu de la scène neuronale“, Science  15 juin 2018: vol. 360, numéro 6394, p. 1204-1210, DOI: 10.1126 / science.aar6170).

«Par exemple, lorsque vous entrez dans une pièce pour la première fois, vous reconnaissez instantanément les éléments qu'elle contient et leur emplacement. Si vous voyez trois pieds d'une table, vous en déduirez qu'il y a probablement un quatrième pied avec la même forme et la même couleur masqué. Même si vous ne pouvez pas tout voir dans la pièce, vous serez probablement en mesure d’esquisser sa disposition ou d’imaginer à quoi elle ressemble sous un autre angle. "("Représentation et rendu de la scène neuronale“, Site web DeepMind). 

L'objectif des scientifiques était de créer un agent d'IA doté des mêmes capacités que celles de l'homme, ce qu'ils ont réussi à faire:

DeepMind utilise «capteur et actionneur»

Ce qui est le plus intéressant pour notre propos est que ce que nous avons décrit dans la première partie correspond exactement à la façon dont les scientifiques ont construit leur processus et résolu le problème de la vision d’un agent de l’IA.

Ils ont appris à leur agent IA à prendre des images du monde extérieur (dans ce cas encore un monde virtuel) - ce que nous appelions le système de capteurs - puis à le convertir via un premier algorithme d'apprentissage en profondeur - le réseau de représentation - en un résultat, une sortie - la représentation de la scène. La sortie, à ce stade, a une signification pour l'agent IA mais pas pour nous. La dernière étape représente ce que nous avons appelé l'actionneur. C'est la conversion d'une sortie significative pour l'IA en quelque chose de significatif pour nous, la "prédiction". Pour cela, DeepMind a développé un «réseau de génération», appelé «moteur de rendu neuronal». En effet, en termes d’infographie 3D, le rendu est le processus de transformation du calcul en une image, le rendu.

La capture d'écran ci-dessous montre le processus en cours (j'ai ajouté les cercles rouges et les flèches à la capture d'écran d'origine).

La vidéo suivante montre toute la dynamique:

Développer des capteurs autonomes pour la vision d'un agent d'intelligence artificielle

Pour reprendre les mots des scientifiques de DeepMind, le développement du réseau de requêtes génératives (GQN) est un effort visant à créer «un cadre dans lequel les machines apprennent à représenter des scènes en utilisant uniquement leurs propres capteurs». En effet, les systèmes de vision artificielle actuels utilisent généralement l'apprentissage supervisé. Cela signifie qu'une intervention humaine est nécessaire pour choisir et étiqueter les données. Le scientifique de DeepMind souhaitait surmonter autant que possible ce type d'implication humaine.

L'expérience ici utilisait un environnement «synthétique» (Ibid., P5). La prochaine étape nécessitera de nouveaux jeux de données pour permettre l’extension aux «images de scènes naturalistes» (Ibid.). En fin de compte, on peut imaginer que le GQN commencera avec la réalité, capturée par un dispositif optique contrôlé par l'IA. Cela implique que le GQN devra intégrer toutes les avancées de la vision par ordinateur. En outre, les capteurs de notre agent d'IA devront également se déplacer dans son environnement pour capturer les observations dont il a besoin. Cela peut se faire, par exemple, via un réseau de caméras mobiles, telles que celles installées de plus en plus dans les villes. Les drones, également contrôlés par l'intelligence artificielle, pourraient éventuellement compléter le réseau de détection.

Amélioration des actionneurs visuels pour un agent AI

Les chercheurs devront également améliorer l'actionneur (ibid.). Les scientifiques de DeepMind suggèrent que les avancées en matière de capacités de modélisation générative, telles que celles réalisées via des réseaux de confrontation générative (GAN), permettront de passer à un «rendu de scène naturaliste».

Entre-temps, les GAN pourraient conduire à des avancées importantes en termes d’expression visuelle, mais également d’intelligence des agents de l’IA.

Lorsque les GAN s’entraînent à représenter des sorties visuelles, ils semblent également développer la capacité de regrouper seuls des objets similaires liés par ce que les chercheurs ont appelé des «concepts» (Karen Hao, «Un réseau de neurones peut apprendre à organiser le monde qu'il voit en concepts, comme nous le faisons“, Examen de la technologie MIT10 janvier 2019). Par exemple, le GAN pourrait «grouper des pixels d'arbre avec des pixels d'arbre et des pixels de porte avec des pixels de porte, quelle que soit la manière dont ces objets ont changé de couleur d'une photo à l'autre dans le kit de formation»… Ils auraient également «peint une porte de style géorgien sur un bâtiment en brique à l'architecture géorgienne, ou une porte en pierre sur un bâtiment gothique. Elle a également refusé de peindre des portes sur un morceau de ciel »(Ibid.).

Des dynamiques similaires sont observées dans le domaine de la recherche sur les langues.

Utilisation d'un bras robotique virtuel comme actionneur

Dans une expérience connexe, les chercheurs de DeepMind ont utilisé un réseau de renforcement en profondeur pour contrôler un bras robotique virtuel au lieu du réseau de génération initiale (Ali Eslami et al., Ibid., P. 5). Le GQN a d'abord été formé pour représenter ses observations. Ensuite, il s'est entraîné à contrôler le bras robotique synthétique.

À l'avenir, on peut imaginer qu'un vrai bras robotisé remplacera le bras synthétique. Le système d'actionneur final ”deviendra ainsi une interface entre le monde virtuel et la réalité.

L'IA comme séquence entre les mondes

Nous allons maintenant généraliser notre compréhension du capteur et de l'actionneur, ou des interfaces pour l'entrée et la sortie AI.

Insérer l'IA dans la réalité signifie le regarder comme une séquence

Nous pouvons comprendre les processus impliquant des agents IA comme la séquence suivante.

Environnement -> détection de l'environnement (en fonction de la tâche) ->
faire une tâche -> sortie d'un résultat intelligible pour l'IA -> exprimer le résultat en fonction de la tâche et acteur en interaction

L'émergence de nouvelles activités

Cette séquence, ainsi que les détails sur l'actionneur GAN par exemple, montrent qu'il faut en réalité plus d'un agent IA si l'on veut intégrer complètement l'IA dans la réalité. Ainsi, le développement d’agents IA performants impliquera de nombreuses équipes et laboratoires.

Envisager la chaîne de production du futur

En conséquence, de nouveaux types d'activités et de fonctions économiques pourraient émerger dans le domaine de l'IA. On pourrait notamment avoir l’assemblage de la bonne séquence opérationnelle. De même, la conception initiale de la bonne architecture, pour tous les types d'agents d'intelligence artificielle et de sous-domaines, pourrait devenir une activité nécessaire.

Diviser l’intégration de l’IA de manière séquentielle nous permet de commencer à comprendre la chaîne de production du futur. On peut ainsi imaginer la série d'activités économiques qui peuvent et vont émerger. Celles-ci iront bien au-delà de l’accent actuel mis sur l’analyse informatique ou sur les consommateurs, ce que les premiers utilisateurs d’intelligence artificielle semblent privilégier à ce jour (Deloitte,Etat de l'intelligence artistique dans l'entreprise“, 2018).

La multiplication vertigineuse des possibilités

De plus, la personnalisation de la séquence d'IA pourrait être adaptée aux besoins. On peut imaginer que divers systèmes d'actionneurs pourraient être ajoutés à une séquence. Par exemple, une «représentation de scène» intelligible par l'agent IA pour utiliser notre deuxième étude de cas pourrait être exprimée sous la forme d'un rendu visuel réaliste, d'un récit et d'un mouvement robotique. Nous sommes ici beaucoup plus près de la manière dont une stimulation sensorielle déclencherait en nous, êtres humains, tout un éventail de réactions possibles. Cependant, par rapport au monde humain, si l’on ajoute le nuage, les différentes expressions de la «représentation de scène» pourraient se situer n’importe où sur la Terre et dans l’espace, selon l’infrastructure de communication disponible.

Les possibilités et les combinaisons que cela implique sont étonnantes et vertigineuses. Et nous verrons dans les prochains articles les incroyables possibilités qui se créent.

Vers la nécessité de redéfinir la sécurité?

Changer notre réalité

En termes de dangers, si nous nous basons uniquement ou principalement sur un monde ressenti, compris puis exprimé par une séquence d’intelligence artificielle, nous ouvrons également la porte à une modification de notre réalité qui pourrait se faire plus facilement que si utilisaient nos propres sens. Par exemple, si vous utilisez une séquence d'agents d'intelligence artificielle pour reconnaître et percevoir le monde extérieur à des kilomètres de l'endroit où vous vous trouvez, un problème non intentionnel ou une intention malveillante pourrait impliquer que nous recevions de fausses représentations visuelles de la réalité. Un arbre pourrait être mis en place sans arbre. En conséquence, une voiture autonome, essayant de l'éviter, pourrait sortir de la route. Le comportement des utilisateurs de cette expression même de la réalité aura un sens dans le monde de l'IA. Ce sera cependant erratique en dehors de cela.

Les acteurs pourraient créer des leurres d’une manière qui n’a jamais été envisagée auparavant. Imaginer Opération Fortitude, l’opération au cours de laquelle les alliés ont séduit les nazis au cours de la Seconde Guerre mondiale concernant le lieu de l’invasion de 1944, organisée avec la puissance de multiples séquences d’IA.

En fait, c’est notre réalité même, telle que nous l’avons l'habitude de la voir exprimée à travers des photographies, qui peut être modifiée de manière que nos sens visuels ne puissent pas saisir directement.

Briser le world-wide-web?

Ici, nous devons également tenir compte de la propagation de la propagande et de ce que l’on appelle maintenant «Fake News», et plus important encore du «Fake Internet», comme le dit magistralement Max Read dans «Quelle quantité d'Internet est Fake? Se révèle, beaucoup, en fait” (Espion26 décembre 2018). En supposant la propagation des signaux «Fake Everything», une intention malveillante établie et établie, puis l’ajout de la puissance des agents d’IA pourrait briser le Web. Les impacts seraient immenses. Pour éviter un tel désastre, les acteurs devront élaborer des règles très strictes et favoriser et diffuser de nouvelles normes.

L'intelligence artificielle redéfinit complètement la manière dont la sécurité peut être violée et doit donc être défendue.

Intégration des agents d'intelligence artificielle selon différentes réalités: Virtual-Virtual et Virtual-Material

Du virtuel au virtuel

Lorsque l'environnement de l'IA-agent et les autres acteurs sont virtuels, la séquence est alors plus facile à construire. En effet, tout se passe dans un monde d'une nature unique.

Cependant, la peur et le besoin de savoir impliqueront très probablement que les êtres humains voudront contrôler à différents moments de la séquence. Ainsi, des manières de traduire le monde virtuel en quelque chose au moins perceptible par les humains sont susceptibles d'être introduites. Cela augmentera la complexité du développement.

Du virtuel au matériel

Lorsque l'environnement est réel et que des interactions ont lieu entre un agent d'intelligence artificielle et des êtres humains, la séquence devient beaucoup plus complexe. Les interfaces jumelles doivent en effet devenir des ponts entre deux types de monde, le numérique et le réel.

En fait, si nous examinons sous cet angle l'écosystème d'apprentissage en profondeur et son évolution depuis 2015, les chercheurs ont consacré une grande partie de leurs efforts initiaux à la création d'agents d'IA capables de «faire une tâche» (jouer, trier, étiqueter, etc.). . Entre-temps, les scientifiques ont d'abord mis au point des moyens de rendre le monde réel intelligible aux agents de l'IA. Pendant ce temps, les systèmes d'actionneurs développés deviennent intelligibles pour l'homme mais ils restent néanmoins pour la plupart virtuels.

En retard dans l'expression du monde virtuel dans le monde réel - Visual AI-agents

Par exemple, le monde réel est traduit en photographies numériques, que l'agent d'intelligence artificielle reconnaît au moyen d'algorithmes d'apprentissage profond. L'IA va les trier ou les étiqueter de manière à ce que les êtres humains comprennent. Par exemple, les êtres humains comprennent facilement les mots, ou les images affichées sur un écran, qui résultent de la partie actionneur de la séquence. Pourtant, cette sortie reste virtuelle. Si nous voulons améliorer davantage, nous devons créer et utiliser d'autres périphériques pour améliorer ou faciliter l'interface du virtuel au réel. La reconnaissance d'objet se déroule de la même manière.

En termes d'efforts visuels liés à l'IA, on peut se demander si nous n'avons pas progressé davantage dans la vision des agents de l'IA que dans l'utilisation de cette vision d'une manière suffisamment utile aux êtres humains dans le monde réel.

Du virtuel au réel, la détection est-elle plus avancée que l'expression?

Un processus similaire est à l’œuvre en Chine avec une reconnaissance sonore (Joseph Hincks, «La Chine crée une base de données des voix de ses citoyens pour renforcer ses capacités de surveillance: rapport“; Temps23 octobre 2017). L'analyse de données est également un moyen d'expliquer aux agents de l'IA ce que sont les utilisateurs d'Internet, selon différents critères. Des capteurs recueillant des données, par exemple à partir de pipelines (par exemple (Maria S. Araujo et Daniel S. Davila, «L'apprentissage automatique améliore la surveillance du pétrole et du gaz«Du 9 juin 2017, Parler de l'Internet des objets en énergie ';Jo Øvstaas, “Big data et apprentissage automatique pour la prévision de la corrosion dans les pipelines“, 12 juin 2017, DNV GL) ou du vol d'un avion, ou de n'importe quoi d'autre, sont des moyens de rendre le monde intelligible à un algorithme ayant une conception spécifique.

Cependant, avons-nous fait des progrès similaires dans le développement d’actionneurs reliant le monde virtuel de l’agent-IA et la réalité de l’être humain? Sinon, est-il possible que nous ayons amélioré toute la séquence mais que les progrès restent limités au monde virtuel? Dans tous les cas, quels sont les impacts en termes de sécurité, de politique et de géopolitique?

C’est ce que nous verrons ensuite, plus particulièrement dans l’Internet des objets, des robots et des êtres humains, en tant que systèmes potentiels d’actionneurs de l’IA.


* Au départ, j'ai utilisé le mot «expresseur» au lieu du mot adéquat, «actionneur». Grâce à Teeteekay Ciar pour son aide dans la découverte.

A propos de l'auteur: Dr Hélène Lavoix, PhD Lond (Relations internationales), est le directeur de la société d'analyse rouge (équipe). La prospective stratégique et l’avertissement concernant les questions de sécurité nationales et internationales sont sa spécialité. Elle se concentre actuellement sur l’intelligence artificielle future et le monde quantique ainsi que sur sa sécurité.

Image sélectionnée: Graphique de l'armée américaine par Sonya Beckett, CERDEC NVESD - Domaine public - De By Aris Morris, 9 janvier 2018, Army ALT MagazineScience et technologie.

A propos de l'auteur: Dr Helene Lavoix (MSc PhD Lond)

Dr Hélène Lavoix, PhD Lond (Relations internationales), est le directeur de The Red (Team) Analysis Society. Elle est spécialisée dans la prospective stratégique et l'alerte en matière de sécurité nationale et internationale. Elle se concentre actuellement sur l'intelligence artificielle, la science quantique et la sécurité. Elle enseigne au niveau Master à SciencesPo-PSIA.

Rejoindre la conversation

2 commentaires

  1. Chère Hélène

    Merci pour cet article très intéressant
    "Pilotes de l'IA"

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les spams. En savoir plus sur la façon dont les données de vos commentaires sont utilisées.

FR
EN FR