Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog
Regards citoyens

Ce blog est destiné à stimuler l'intérêt du lecteur pour des questions de société auxquelles tout citoyen doit être en mesure d'apporter des réponses, individuelles ou collectives, en conscience et en responsabilité !

La guerre augmentée ? Enjeux et défis de l’IA dans les conflits futurs, par Louis Gautier (Pouvoirs 2019/3 (N° 170))

En dévoilant le 5 avril 2019, lors d’une visite sur le campus Paris- Saclay, la feuille de route du ministère des Armées sur l’intelligence artificielle, Florence Parly signalait que la France, en cette matière, avait pris la mesure des enjeux pour notre défense. Déjà en 2018, un rapport de Cédric Villani, Donner un sens à l’intelligence artificielle, comptait la défense parmi les cinq priorités d’une stratégie nationale en faveur du développement de la recherche en intelligence artificielle.

Les enjeux technologiques et financiers sont en effet colossaux si l’on veut que notre pays ne soit pas distancé dans une course technologique pouvant déboucher sur le déclassement de ses systèmes de protection et de combat. La digitalisation des armements et la numérisation du champ de bataille, à l’oeuvre depuis trois décennies, ont déjà transformé en profondeur la conduite des opérations militaires et la nature des combats. Mais ce qui est en train de changer sous nos yeux et amorce un saut dans l’inconnu, ce sont les effets produits par la conjonction de plusieurs facteurs fortement évolutifs : le stockage massif des données, leur traitement en temps réel grâce à des réseaux et des algorithmes de plus en plus performants, le développement de capacités de calcul jusqu’alors inégalées et incommensurables demain quand les ordinateurs quantiques seront à pied d’oeuvre1. Ce qui change encore, c’est l’essor de conflictualités dans le cyber et dans l’espace, que l’intelligence artificielle favorise directement ou indirectement. Ces dimensions sont en effet stratégiques en elles-mêmes et névralgiques pour les combats futurs qui supposent de rester maître de ses réseaux et de ses capteurs. Ce qui change enfin, c’est la mobilisation de nouvelles technologies (biotechnologie, nanotechnologies, imprimantes 3d…) dans la fabrication et la reproduction d’armes autonomes dotées de fonctions complexes et de plus en plus miniaturisées 2, pouvant aboutir, sur une large échelle, au déploiement de systèmes d’armes létaux autonomes (sala), autrement dit de « robots tueurs ». Nous n’en sommes pas encore là. En sommes-nous très loin ? Entre fantasme et réalité, comment, à vue humaine, dessiner les contours de la « guerre augmentée » 3 ?

Une chose est certaine, l’intelligence artificielle est en passe de révolutionner l’art de la guerre, tout en posant de redoutables problèmes éthiques et philosophiques à nos sociétés démocratiques et plus fondamentalement à la conscience humaine.

« Nous choisissons la voie de la responsabilité, celle de protéger nos valeurs et nos concitoyens tout en embrassant les opportunités fabuleuses offertes par l’ia », indiquait la ministre des Armées dans sa feuille de route. Cette voie tracée pour notre défense est à la fois juste et étroite : financièrement tant nos moyens sont comptés, militairement tant les avancées technologiques sont rapides, politiquement et déontologiquement tant le champ des possibles est ouvert.

L'IA et le nerf de la guerre

En respectant le cadre de la programmation militaire actuelle tout en prolongeant l’effort à l’horizon de 2025, le ministère des Armées entend consacrer 100 millions d’euros par an aux études et développements consacrés à l’intelligence artificielle. Il est également prévu d’ici quatre ans de recruter des spécialistes du domaine pour les centres d’expertise des directions générales de l’armement et des armées. L’Agence de l’innovation de défense, nouvellement créée, sera chargée de coordonner les initiatives en matière d’intelligence artificielle, qu’elles soient menées par le ministère des Armées ou par les industriels du secteur. Les premiers projets portent de façon réaliste sur des domaines non létaux : la logistique, la maintenance prédictive, la cartographie augmentée du champ de bataille, le renseignement, la navigation automatique de véhicules ou de mini-drones de reconnaissance…

En raison de cette mobilisation budgétaire et de la priorisation de ses projets, la France se retrouve en tête des pays européens, dans un peloton qui regroupe parmi les Vingt-Huit (avant le Brexit) le Royaume-Uni, l’Allemagne et l’Italie. Cependant, notre pays est inéluctablement distancé par les États-Unis et la Chine. Le département d’État américain a ainsi lancé plus de six cents programmes militaires faisant appel à l’intelligence artificielle et prévoit d’engager 1,7 milliard d’euros d’ici 2023. La Chine se situe au même niveau d’investissement.

Dans ce domaine dual par excellence, on constate combien la dispersion des efforts est préjudiciable. Les pays européens affichent en effet, en matière d’ia, un retard global par rapport aux États-Unis et à l’Asie, ce qui affecte leur potentiel économique et nuit à leur défense, freinée dans le développement d’applications militaires. Là où, secteurs civil et militaire confondus, la France et l’Allemagne investissent ensemble, chaque année, moins d’un milliard d’euros de fonds publics et privés à deux, et alors que la Commission européenne exhorte les États membres de l’Union à porter, à partir de 2020, leur effort collectif en faveur de l’ia à 20 milliards d’euros d’engagements par an, la Chine et les États-Unis y consacrent, chacun, d’ores et déjà dix fois plus de moyens, les financements publics étant précédés aux États-Unis par les investissements considérables des gafam, qui se chiffrent en milliards de dollars.

Outre ce déséquilibre des ressources financières, les Européens pâtissent de choix économiques et juridiques qui les privent des richesses immatérielles que constitue pour l’intelligence artificielle l’accumulation de données captées et appropriées par les mastodontes américains, Google, Amazon, Facebook, Apple, Microsoft, mais aussi chinois, Baidu, Alibaba, Tencent, Xiaomi…

Après que Bruxelles a sonné le tocsin 4, il est grand temps que les Européens se ressaisissent. Il convient à la fois de considérablement renforcer le niveau des investissements dans l’intelligence artificielle mais aussi de lutter, par des coopérations et des politiques communes, contre une trop grande fragmentation des projets industriels et des programmes de recherche. Dans le domaine militaire, il conviendrait en particulier que la mise en place du prochain fond européen de défense, qui devrait être doté entre 2021 et 2027 de 13 milliards d’euros, favorise, en priorité, le financement de programmes conjoints en ia 5.

À condition de redoubler d’efforts, les Européens ne sont pourtant pas éliminés du jeu, notamment dans le domaine militaire. En effet, la recherche française et européenne en matière d’ia est en pointe – parmi les tout premiers centres d’étude au monde dans ce domaine, on peut notamment citer l’Inria, qui fait jeu égal avec le Massachusetts Institute of Technology ou l’université Carnegie-Mellon, l’université Paris-Saclay, et Sorbonne Université. En outre, l’avantage comparatif considérable retiré par les Américains et les Chinois du fait de la détention, dans leurs bases de données, d’informations concernant des milliards d’individus se réduit dès que l’on quitte l’univers transparent des applications civiles. Les données d’intérêt militaire sont généralement protégées, difficilement accessibles et peu partagées. La France bénéficie même d’une position singulière en Europe en termes d’acquisition et d’analyse des données d’intérêt militaire. Elle le doit à une politique d’armement caractérisée par son autonomie industrielle et technologique, à son acquis spatial et aux déploiements lointains de ses forces sur de multiples théâtres d’opération. Un Rafale produit ainsi plusieurs téraoctets de données par heure de vol, et chacun des trois satellites d’observation cso qui succéderont à Hélios 2 au cours de l’année 2019 6 produira cent fois plus d’informations que l’ensemble des capteurs spatiaux actuellement déployés pour les armées 7.

Chaque rupture technologique se traduit par une croissance exponentielle des besoins d’investissements pour la défense. Les coûts d’acquisition et de détention des équipements militaires suivent la même courbe ascendante. À titre d’exemple, les sauts technologiques observés dans la seconde moitié du xxe siècle ont entraîné une très forte évolution du prix unitaire des avions de combat. Celui-ci en un demi-siècle est passé, en ordre de grandeur, de 50 000 euros environ en 1945 à 250 000 euros dix ans plus tard, de 2,5 millions d’euros en 1960 à 30 millions en 1980 puis à 70 millions au début des années 2000. Le coût de possession (achat,entretien, rénovation à mi-vie…) dans la durée d’un f-35 américain est aujourd’hui de l’ordre de 350 millions d’euros. L’intégration initiale et au long cours 8 de l’innovation pour détenir des équipements militaires au meilleur standard a entraîné un très fort renchérissement des matériels de guerre, chars, avions, bâtiments de combat, tout en conduisant au cours des trois dernières décennies, toutes choses égales par ailleurs selon les pays, à une réduction des flottes en service dans les armées en raison de leurs coûts 9.

Ce modèle n’est cependant pas extrapolable tel quel en ce qui concerne la fabrication et l’entretien des armes du futur. L’intelligence artificielle va, en effet, forcément bouleverser l’économie de production et les paramètres de conception des équipements militaires. Tout d’abord, le transfert et la dissémination des technologies civiles vers les applications militaires seront des tendances fortes. Cette évolution est à double tranchant, positive s’agissant de la mutualisation des coûts de recherche, négative s’agissant du caractère fortement proliférant de certaines de ces technologies facilement reproductibles. Le secteur de l’armement et des industries de sécurité risque en outre de voir apparaître, comme c’est le cas aujourd’hui dans le domaine spatial, de nouveaux acteurs en provenance du numérique. Cette hybridation économique devrait avoir des conséquences majeures à la fois sur la banalisation des technologies militaires et sur leur commercialisation. À côté de cette tendance lourde, l’intelligence artificielle fait aujourd’hui dévier bien des logiques prises en considération dans la fabrication des systèmes d’armes. En favorisant l’automatisation de ces systèmes, elle évince l’homme de la machine et règle ainsi, à moindre coût, le casse-tête ergonomique du combattant embarqué. La miniaturisation et la logique de saturation vont en outre favoriser la prolifération des effecteurs employés en essaim. Par ailleurs, la polyvalence indispensable actuellement en raison du coût des plateformes ne devrait plus aussi systématiquement s’imposer, ce qui réduit le poids des contraintes. Le nombre des artefacts va de nouveau prévaloir sur la rareté. Il ne s’agit ici que de fournir quelques indications sommaires (et, à ce stade, discutables) sur des évolutions encore en gestation, pour souligner combien nous devons prêter attention aux conséquences multidirectionnelles des développements futurs de l’ia dans les affaires militaires, et cela à tous les niveaux de la décision : stratégique et tactique, financier et industriel.

Être à la hauteur des défis de la révolution de l’intelligence artificielle requiert d’abord de payer le prix d’un ticket d’entrée. Le fait que son montant soit très élevé, en termes d’investissements duaux publics et privés, suppose qu’il soit acquitté collectivement avec nos partenaires européens. L’argent, comme toujours, est le nerf de la guerre ! Mais cette révolution pousse aussi à une réflexion sur l’organisation nationale et européenne de notre base industrielle et technologique de défense et sur les schémas de production et de reproduction des armes nouvelles. Or cette réflexion est à peine engagée. Le débat sur les armes, sur leur perfectionnement et leurs usages, ne l’est pas davantage. Comme toujours dans l’histoire, ces questionnements suivent avec un ou deux métros de retard l’invention des armes nouvelles et leurs premiers emplois.

L'intelligence artificielle des armes
Trois paramètres expliquent l’expansion récente, pour l’instant non régulée et faiblement réglementée, de l’ia à tous les secteurs de l’activité humaine, dont la sécurité et la défense : la qualité des algorithmes, la puissance de calcul, la quantité de données collectées.

Les apports attendus de l’intelligence artificielle dans la gestion des affaires militaires sont ainsi nombreux. L’ia assure une accélération de la prise de décision, particulièrement bienvenue en situation de crise. Elle permet une meilleure intégration des paramètres utiles à l’évaluation des menaces, ou encore à la planification et à la conduite des opérations. Elle facilite la gestion dans la durée d’une manoeuvre complexe coordonnée impliquant le traitement massif et réactif de données. Elle favorise, en amont et dans les engagements au combat, l’optimisation des soutiens logistiques et plus généralement une meilleure allocation des moyens. L’ia embarquée sur des effecteurs peut aussi répondre à des missions fastidieuses (permanence opérationnelle) ou trop exposées pour le combattant. Dans les missions d’anticipation, de renseignement, de commandement et d’appui à distance, le recours de plus en plus fort aux algorithmes de calcul s’impose avec peu de réserves (même si des réflexions portant sur l’organisation, le réaménagement des chaînes de commandement, les pratiques professionnelles et déontologiques dans les armées, sont, sur ces sujets, nécessaires). Plus on se rapproche des combats en revanche, plus la question de ce qu’il est moralement et politiquement acceptable de voir traiter par l’ia se pose. La fiabilité des algorithmes est au coeur de ce débat aux interrogations multiples.

Force est de constater en effet, de façon générale, que la fiabilité atteinte par l’intelligence artificielle varie encore beaucoup en fonction de la complexité du domaine d’apprentissage et de la difficulté à modéliser des propositions ou des réactions pertinentes guidant ou remplaçant le jugement humain. Le degré de fiabilité attendu de l’ia n’est, en outre, pas le même s’il s’agit de suggérer l’achat en ligne d’un livre via Amazon, de diagnostiquer grâce à un système expert un glaucome chez un patient, d’autoriser le décollage d’un avion après un check-in automatique, ou encore de cibler pour le neutraliser un pick-up d’Al-Qaïda au Maghreb islamique dans le désert sahélien. Amazon seulement a droit à l’erreur (avec mon exaspération en prime). Dans les autres cas, la marge d’erreur même ramenée à moins de 10 % est de toute façon problématique.

C’est pourquoi les potentialités de l’ia en lien avec l’emploi de la force armée sont de facto aujourd’hui « plafonnées » par un niveau de performance et un degré de fiabilité insuffisants pour que soit envisagé, sans de fortes restrictions, l’emploi d’automates offensifs s’affranchissant de tout contrôle humain. Ce qui signifie cependant, en l’état actuel de l’art, que beaucoup d’usages sont néanmoins possibles 10.

D’ores et déjà en effet tous les pays producteurs d’armement (États-Unis, Chine, Russie, Royaume-Uni, France, Israël…) proposent des systèmes d’armes intégrant des robots ou des systèmes autonomes, y compris létaux 11. L’automatisation prévaut déjà largement dans la mise en oeuvre des systèmes de défense, avec l’intégration poussée des séquences de détection de ciblage et de tir, qu’il s’agisse de défense antiaérienne et antimissile, ou des systèmes d’autodéfense de plateformes de combat. Une fois « initié », un missile de croisière ou « rôdeur » qui a la possibilité de se recaler en fonction de la mission programmée fonctionne déjà de façon autonome. Depuis longtemps, les avions de combat peuvent évoluer en suivi de terrain automatique, leurs pilotes se contentant alors d’autoriser un tir que le calculateur principal de l’avion a élaboré seul. L’importance prise par les drones s’impose désormais comme une évidence, qu’il s’agisse de drones de surveillance ou de drones offensifs. La France emploie d’ailleurs quotidiennement des drones Reaper, dans le cadre de l’opération Barkhane au sein de la bande sahélo-saharienne. En 2019, les forces armées américaines sont en mesure d’activer en permanence quatre-vingt-dix orbites de drones aériens alors que la cia en dispose aussi d’une vingtaine pour des opérations de surveillance ou ciblées. Dans le milieu maritime, les premiers systèmes d’autoprotection apparaissent au début des années 1960. Les navires de surface sont dotés de modes de tir autonomes au cours des années 1970. Les frégates françaises Horizon disposent d’un mode d’engagement totalement automatique pour leur autoprotection contre les missiles, à l’instar du système Phalanx américain. En matière de renseignement et de guerre des mines, l’emploi de drones maritimes se développe. Ainsi la firme Thales propose un drone mixte de surface et sous-marin, l’auss, qui peut conduire un large spectre de missions de manière autonome sur une période de plusieurs semaines. Dans le domaine terrestre, les systèmes autonomes se sont au départ développés pour protéger la vie des combattants. Ainsi la France, en 2012, a-t‑elle déployé le robot Minirogen en Afghanistan pour lutter contre les engins explosifs improvisés. Mais les usages s’étendent. Les Israéliens utilisent un drone armé patrouilleur Segev pour contrôler la frontière sur la bande de Gaza. Le robot Strelok, capable de se mouvoir en environnement urbain, aurait été déployé par les forces spéciales russes en Syrie. Les États-Unis ont testé en Syrie et en Irak, contre Daech, leur application Marven, qui comporte des algorithmes de reconnaissance de cibles (avec un taux de réussite de 80 %).

Après avoir été mises en oeuvre pour assurer le ciblage et la pénétration des missiles, dans des systèmes de défense ou d’autoprotection ou encore sur des drones de surveillance, les applications opérationnelles de l’intelligence artificielle vont donc logiquement se multiplier et se diversifier non seulement dans la préparation et la gestion des conflits, mais aussi dans la mise en place de la manoeuvre tactique et leur intégration systématique dans des outils offensifs.

La complexité des situations tactiques (identification ami/ennemi, limitation des dégâts collatéraux, appréciation de la proportionnalité du recours à la force, intégration de la ruse ou du comportement aberrant chez l’adversaire…) excède encore la capacité d’analyse et de traitement des machines, ce qui génère d’ailleurs des incidents (un Tornado britannique et un f-18 ont été ainsi abattus en 2003 par des tirs fratricides de missiles Patriot en mode automatique, pour citer un exemple déjà ancien et connu). Les données relatives à ces dysfonctionnements sont traitées pour enrichir l’apprentissage et corriger les processus. Jamais, du fait de ces erreurs, un retour en arrière vers des systèmes non autonomes n’a été constaté. C’est une terrible loi du genre : on ne « neutralisera » pas plus l’emploi de l’intelligence artificielle dans les applications militaires que l’on a « désinventé » la bombe atomique après Hiroshima ni jadis les carreaux d’arbalète, pourtant interdits en 1139 par le deuxième concile du Latran. Seules les armes se dépassent entre elles. Le recours à l’ia laisse envisager des dépassements inédits 12 et suscite des craintes qui donnent le vertige 13.

L'IA dans le brouillard de la guerre

Les effets de l’intelligence artificielle sur l’art de la guerre sont aujourd’hui en grande partie différés dans la mesure où les applications actuelles, qui viennent d’être décrites, ont un impact réel mais encore limité 14. On en est toujours au stade d’une ia faible. Le passage à une ia forte, supposant un apprentissage profond des machines 15 et des algorithmes sophistiqués, est cependant inscrit dans un avenir prévisible qui pose la question de la place de l’homme dans la boucle de décision. Aujourd’hui, l’intelligence artificielle fonctionne dans un mode collaboratif avec le combattant. Demain, elle pourra non seulement trier des informations, analyser des situations, proposer des séquences de réponse et les mettre en oeuvre en fonction d’un ordre reçu ou programmable (ordre de tir, mise en veille, en mode automatique), mais aussi commander des robots et leurs logiciels pour les faire agir.

L’automatisation complète où l’ia gère la planification d’une tâche et son exécution dans des opérations de combat relève encore de la sciencefiction. En revanche, d’autres modèles d’automatisation, qui relativisent la place de l’homme sans la supprimer, sont d’ores et déjà « pensés » et envisagés. Il s’agit de schémas où les robots télé-opérés ou télésurveillés agissent comme des « équipiers » déployés à côté ou à distance d’un pilote ou d’un groupe de soldats pour les assister dans différentes tâches et recevoir dans certaines conditions des délégations d’action.

Face aux évolutions récentes ou prévisibles des conflits contemporains, à leur durcissement, à leur durée, à leur asymétrie, à la relativisation de la suprématie militaire occidentale, à la prolifération et à la dissémination technologiques, la digitalisation et l’intelligence artificielle rétablissent des équilibres, permettent de s’affranchir des contraintes d’emploi ou neutralisent certains avantages. Les robots qui agissent sur terre, sur mer, dans les airs et l’espace ne sont pas limités dans leurs usages par l’hostilité des milieux. Ils peuvent venir partiellement compenser des insuffisances numériques, combler des déficits capacitaires, et même des défaillances humaines.

Au-delà des progrès potentiels et problématiques, dans la dimension opérationnelle et tactique, c’est en termes stratégiques que les nouvelles technologies changent la donne, notamment pour contrer les capacités croissantes de déni d’accès ou d’interdiction de zone, saborder des réseaux de communication et de commandement adverses : bref, trouver et exploiter les défauts dans la cuirasse de l’ennemi, voire gagner la guerre sans engagement cinétique ni coup férir, simplement par le démantèlement méthodique de ses défenses. Évidemment, cette supériorité que l’on recherche pour nous-mêmes, d’autres aujourd’hui l’ambitionnent aussi et nous ont déjà devancés. L’ia peut être mise au service de toutes les missions de prévention, de protection, de dissuasion, ou des actions offensives. Elle peut être utilement employée pour maintenir la paix ou au contraire précipiter l’humanité, tête baissée, dans une terrible fuite en avant, vers l’inconnu de guerres technologiquement augmentées.

L’intelligence artificielle ne dissipe pas le brouillard de la guerre, même si son exploitation donne l’illusion de rendre les choses plus intelligibles en les mettant en équation. L’apprentissage des machines dépend des informations qui leur sont fournies. Il est donc soumis aux déficiences des capteurs ainsi qu’aux biais culturels et cognitifs, voire à la ruse des humains. Des contre-stratagèmes seront immanquablement élaborés (avec l’aide ou non des machines) pour tromper les logiciels. Il y aura toujours des éléphants d’Hannibal qui franchiront les Alpes ; la guerre conservera sa part de surprise et d’aberration.

Si l’intelligence artificielle, pas plus que la dissuasion au xxe siècle, ne règle sa cause à la guerre des hommes entre eux, elle en modifie, en revanche, profondément la grammaire et les codes. L’ia est le nouveau paradigme des conflits armés au xxie siècle et confronte l’humanité au renouvellement de ses questionnements philosophiques et éthiques sur le libre arbitre, la responsabilité, la valeur de la vie humaine, l’autorisation de tuer dans un temps qui désormais intègre la guerre dans la paix. La création voulue par la ministre des Armées d’un comité consultatif d’éthique, ou encore son souhait d’une ia « robuste fiable et certifiée », et enfin l’ouverture de discussions internationales pour en encadrer les usages sont donc à saluer. Résumer le propos en disant : « Oui à l’intelligence artificielle et non aux robots tueurs ! » comme le font certains analystes, reviendrait cependant à escamoter un débat essentiel qui ne fait que s’ouvrir après avoir tardé. L’ia est le nouveau paradigme des conflits du xxie siècle et comme tel interroge déjà la conscience de l’humanité.


 

  1. Ce qui est annoncé mais dans un avenir toujours indéterminé.
  2. Cf. à ce sujet le rapport du Secrétariat général de la défense et de la sécurité nationale intitulé Chocs futurs. Étude prospective à l’horizon 2030 sur les impacts des transformations et des ruptures technologiques sur notre environnement stratégique et de sécurité, sgdsn.gouv.fr, mai 2017.
  3. Il s’agit de formuler un concept général à la fois plus parlant et mieux adapté à une transformation de la guerre en cours et tributaire des développements militaires futurs de l’intelligence artificielle que le concept d’hyperwar, popularisé par Amir Husain ou John Allen, qui semblent considérer comme acquis les résultats de ces développements. Cf. Amir Husain, John R. Allen, Paul Sharre, August Colle et al., Hyperwar: Conflict and Competition in the ai Century, Austin (Tex.), SparkCognition Press, 2018.
  4. Cf. en particulier la stratégie sur l’intelligence artificielle, adoptée en avril 2018, et le plan coordonné élaboré par la Commission européenne avec les États membres pour favoriser le développement et l’utilisation de l’ia en Europe, annoncé le 7 décembre 2018.
  5. Cf. à ce sujet les conclusions du rapport au président de la République Défendre notre Europe, 6 mars 2019.
  6. cso-1 a été mis sur orbite le 18 décembre 2018.
  7. Cf. Nathalie Guibert, « Les défis militaires de l’intelligence artificielle », Le Monde, 16 octobre 2018.
  8. La durée de vie des aéronefs, bâtiments et véhicules de combat, régulièrement rénovés (retrofit complet à mi-vie), dépasse souvent les trente ans.
  9. Le f-22 américain Raptor n’a été acquis qu’à cent soixante-dix exemplaires et le nombre de Rafale fabriqués à ce jour est inférieur à cent quatre-vingts.
  10. Cf. à cet égard les contributions de David Sadek et Jérôme Lemaire (« Intelligence artificielle et traitement des données », 25 mars 2019), d’Éric Papin (« Vision de Naval Group sur l’apport de l’intelligence artificielle dans le domaine naval », 1er avril 2019) et d’Ève Gani et Mohammed Sijelmassi (« L’intelligence artificielle peut-elle dissiper le brouillard de la guerre ? », id.) aux conférences de la chaire « Grands enjeux stratégiques contemporains » de l’université Paris 1 Panthéon-Sorbonne.
  11. Cf. « Military Robots » (étude de marché), WinterGreen Research, 2015.
  12. Paul Scharre, Army of None: Autonomous Weapons and the Future of War, New York (N. Y.), W. W. Norton & Company, 2018.
  13. Jean-Gabriel Ganascia, Le Mythe de la Singularité. Faut-il craindre l’intelligence artificielle ?, Paris, Seuil, 2017.
  14. Jean-Christophe Noël, « L’intelligence artificielle révolutionnera-t‑elle l’art de la guerre ? », Politique étrangère, vol. 83, n° 4, 2018‑2019, p. 159‑179.
  15. Pour être exact, le machine learning est un apprentissage automatique qui se fonde sur des approches statistiques pour donner aux ordinateurs la capacité d’apprendre à partir de données.
  •  
Partager cet article
Repost0
Pour être informé des derniers articles, inscrivez vous :
Commenter cet article