La nouvelle ère militaire : l’intelligence artificielle débarque dans les armées

© Photographie par Arvin Mantilla sur Unsplash

Un article par Mona Riou le 3 mai 2021

« Aux côtés des célèbres slogans « Code is law » et « Design is politics », on peut désormais ajouter « AI is politics » »[1].

Dans ce nouveau slogan, Cedric Villani confirme une tendance que peu de personnes ont pu manquer : l’émergence de l’intelligence artificielle (IA) dans notre société. Pour la plupart des civils, cela se voit par l’utilisation de plus en plus impressionnante des assistants à reconnaissance vocale comme la très connue Alexa d’Amazon ou Siri d’Apple. Toutefois, pour les domaines régaliens et particulièrement le militaire, cette émergence se traduit par des enjeux primordiaux dans la balance des pouvoirs sur la scène internationale. Qui aura accès aux IA en premier ? Qui aura le dessus sur l’autre ? Qui cessera d’utiliser les hommes sur le terrain en premier ? Qui gagnera les conflits de demain ? Quels seront les dommages collatéraux ? Beaucoup de questions et peu de réponses, du moins pour l’instant.

Sur le terrain militaire,  » l’IA assure une accélération de la prise de décision « 

Si l’on se réfère à l’Organisation Internationale de la Normalisation (ISO), l’intelligence artificielle est la « capacité d’une unité fonctionnelle à exécuter des fonctions généralement associées à l’intelligence humaine telles que le raisonnement et l’apprentissage. »[2] . Ainsi, au-delà des outils technologiques déjà utilisés, l’intégration de l’IA promet de remplacer l’Homme sur des taches de réflexion très basique. Concrètement, sur le terrain militaire, « l’IA assure une accélération de la prise de décision, particulièrement bienvenue en situation de crise. Elle permet une meilleure intégration des paramètres utiles à l’évaluation des menaces, ou encore a la planification et a la conduite des opérations. […] Dans les missions d’anticipation, de renseignement, de commandement et d’appui à distance, le recours de plus en plus fort aux algorithmes de calcul s’impose avec peu de réserves […]. »[3] . Finalement, les premiers acteurs armés en IA auront un avantage crucial dans les conflits présents et à venir.

Tout en se concentrant sur le cas français, et par extension, européen, par rapport aux concurrents étrangers, il est intéressant de se questionner sur les stratégies nationales et de coopérations internationales concernant l’intégration de l’IA dans les politiques de défense. Face au développement fulgurant des nouvelles technologies, comment la France doit-elle intégrer l’intelligence artificielle à ses politiques extérieures tout en respectant les limites éthiques et morales contemporaines ?

La notion de « puissance » est en passe d’être renouvelée sur la scène internationale. Ce changement suppose donc une course, mais pas seulement entre États, car les acteurs privés sont une concurrence non-négligeable dans la course à l’armement intelligent. Mais bien que cette course représente des enjeux politiques et économiques colossaux, des questions éthiques et philosophiques peuvent ralentir la France et ses homologues européens.

Robot, Mech, Machine, Technologie, Urbaines, Ia
© Photographie par Computerizer sur Pixabay

Un renouvellement en approche de la notion de puissance sur la scène internationale

Bien que certaines puissances disposent d’une avance sur le France et l’Europe en général, ce retard reste rattrapable.

Des puissances en avance

Aux États-Unis ou en Chine, de nouveaux moyens doivent être mis en œuvre pour développer l’intelligence artificielle, d’abord dans le domaine scientifique et ensuite dans le domaine militaire.

Les Etats-Unis sont en tête sur le domaine de l’Ia

Les États-Unis sont en tête sur le domaine de l’IA grâce aux nombreuses entreprises de la Sillicon Valley mais notamment Google et sa filiale spécialisée DeepMind. La Chine, quant à elle, est la première investisseuse dans le domaine avec un objectif fixé pour une industrie à 150 milliards de dollars d’ici 2030[4].

Les investissements mondiaux vers les entreprises dans le domaine de l’IA ne sont pas partagés géographiquement de manière égalitaire : sur 15,2 milliards de dollars, 48 % de ceux-ci ont été envoyés vers la Chine en 2017, 38 % vers les États-Unis et 13 % dans le reste du monde[5].

Mais la France n’est pas ignorante face à cette difficulté. Dans un rapport de synthèse initié par la secrétaire d’État chargée du numérique, Axelle LEMAIRE, il est clairement admis que « cette nouvelle donne voit s’affirmer de nouvelles stratégies de puissance et met le multilatéralisme et l’Europe à l’épreuve »[6].

Un retard rattrapable pour la France et l’Union européenne

L’intégration croissante de l’intelligence artificielle dans le domaine militaire représente donc un haut potentiel pour la France et l’UE de se démarquer et d’acquérir en puissance.

la France doit investir d’abord elle-même dans ses propres entreprises pour établir une compétitivité

« En raison de cette mobilisation budgétaire et de la priorisation de ses projets, la France se retrouve en tête des pays européens, dans un peloton qui regroupe parmi les Vingt-Huit (avant le Brexit) le Royaume-Uni, l’Allemagne et l’Italie. »[7]. En effet, pour l’instant l’argument principal reste l’argument financier. Le pouvoir est à ceux qui développent leur industrie de la technologie, or l’industrie se développe grâce à des investissements massifs qui, pour l’heure, sont principalement envoyés vers la Chine et les États-Unis. Pour débloquer cette situation, la France, éventuellement par le biais de l’Union européenne, doit investir d’abord elle-même dans ses propres entreprises pour établir une compétitivité. Ensuite, un effet boule de neige pourrait combler les écarts avec les concurrents. Ce qui sera dans le secteur privé pourra enfin bénéficier aux pouvoirs publics pour en faire des outils dans la gestion des conflits.

Mais c’est justement la place majeure du secteur privé qui peut poser problème dans l’émergence de l’armement intelligent. La course semble difficile et ne se fait pas qu’aux côtés de puissances étatiques.

Une ambitieuse course avec de nombreux acteurs publics et privés

Les États dépendent des acteurs privés pour développer leur compétitivité technologique, mais le risque de la démocratisation de l’armement intelligent n’est pas a prendre avec légèreté.

L’investissement essentiel des acteurs privés

Le domaine scientifique est aujourd’hui une clef dans le développement de l’intelligence artificielle et il est aujourd’hui financé en grande partie par le secteur privé.

Cela peut être intéressant pour un pays comme les États-Unis car de très grandes entreprises comme Google et Apple entre autres, sont en mesure d’injecter des millions de dollars dans des projets de recherche. Par exemple, sur le court terme, l’une des utilisations de l’IA la plus intéressante est la voiture autonome. Selon le cabinet de recherche Juniper Research, parmi les cinq entreprises en tête sur cette question, 3 sont américaines (Google, Tesla et Apple) mais 3 sont européennes (Volvo et Daimler)[8].

Les applications militaires d’une telle technologie sont faciles à imaginer (chars autonomes) et représenteraient un atout majeur, notamment pour limiter le nombre de victimes humaines sur le champ de bataille. En effet, si les machines remplaçaient les hommes sur le terrain, aucune Nation n’aurait plus jamais à pleurer ses soldats morts au combat. Et ne pas avoir de morts, finalement, c’est gagner une guerre.

Boeing, industriel américain, a dévoilé son drone armé utilisant l’intelligence artificielle

Plus spécifiquement dans le domaine militaire, Boeing, encore une fois un industriel américain, a dévoilé en mai 2020 son drone armé utilisant l’intelligence artificielle, destiné à l’armée de l’air australienne. Bien que ce drone ne soit pas totalement autonome, le « Loyal Wingman » sera un atout pour les pilotes, qui pourront l’utiliser comme appui-feu mais aussi le laisser manœuvrer de manière autonome[9].

© Photographie du Loyal Wingman par Boeing

Le risque de la démocratisation de l’armement intelligent

Mais cela peut aussi poser un inconvénient, car à terme, cela peut favoriser l’armement d’acteurs non-étatiques. Il ne faut pas oublier qu’au-delà des enjeux militaires purs, l’intelligence artificielle représente surtout d’énormes enjeux économiques.

La Turquie est beaucoup observée à ce sujet

Aujourd’hui, c’est la Turquie qui est beaucoup observée à ce sujet. L’entreprise privée Baykar produit des drones qui sont de plus en plus populaires dans le nord de l’Afrique et le Proche-Orient. Ces drones sont notamment utilisés par l’armée Turque elle-même en Syrie. Lorsque l’on sait que les dirigeants de cette industrie sont très proches du gouvernement, on peut alors se demander si au-delà des objectifs géopolitiques, il n’y aurait pas une volonté de faire une bonne publicité pour les drones turcs et donc de les vendre.

Le développement des industries dans chaque pays ayant les moyens de les financer pose évidemment le problème de la concurrence. Il faut vendre, et les acheteurs ne sont pas que d’autres États, alliés ou non. Que se passerait-il si des armes de nouvelle génération, comme les systèmes d’armes létaux autonomes (SALA) étaient accessibles à n’importe qui pouvant se permettre de payer la facture ? Quelles seraient les conséquences si DAESH obtenait des armes intelligentes ? Sûrement, ces conséquences seraient dramatiques.

Des enjeux éthiques et philosophiques

Dans le domaine de l’armement et de la guerre, il n’y a pas de place pour une marge d’erreur. C’est en cela que l’utilisation de l’IA peut poser des problèmes éthiques et philosophiques. En Europe, il semble exister une conscience de ces risques et les réglementations se basent sur des doctrines relativement anciennes dans la matière mais sur la scène internationale, les limites sont moindres pour la concurrence.

Des lois de la robotique intégrées par le Parlement européen

Le retard de la France dans cette course à l’armement technologique peut s’expliquer par le frein que représente l’éthique.

Issues de la science-fiction, il existe aujourd’hui 3 lois de la robotique, les lois d’Asimov, qui constituent une base pour réglementer l’IA. Elles ont été développées comme telles : « 1. Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ; 2. Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ; 3. Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la première ou la deuxième loi. »[10].

Les lois de la robotique mentionnent qu’un robot ne peut être utilisé pour nuire à l’humanité

Les lois de la robotique sont reprises dans les quelques rapports européens sur l’IA et mentionnent effectivement qu’un robot ne peut être utilisé pour nuire à l’humanité. Par exemple, des recommandations ont été formulées par la commission des affaires juridiques du Parlement européen en 2016 dans lesquelles il est dit : « jusqu’à ce que les robots deviennent conscients de leur propre existence, ou soient fabriqués ainsi à dessein, si tant est que cela advienne un jour, il y a lieu de considérer les lois d’Asimov comme s’appliquant aux concepteurs, aux fabricants et aux utilisateurs de robots, étant donné que lesdites lois ne peuvent être traduites en langage de programmation »[11].

De plus, comme le souligne Louis Gautier « la création voulue par la ministre des Armées d’un comité consultatif d’éthique, ou encore son souhait d’une IA « robuste fiable et certifiée », et enfin l’ouverture de discussions internationales pour en encadrer les usages sont […] à saluer. »[12] .

Il n’est alors pas question, ni de sombrer dans la science fiction, ni de prendre du retard face aux autres acteurs de cette course par peur de l’inconnu. « Les résultats fructueux d’une expérience visant à rapprocher le robot de l’humain suscite les réactions contrastées de l’opinion publique, partagée entre effroi et fascination. Il faut dire que la science fiction nous a appris à nous méfier des robots, prompts à se rebeller contre leurs créateurs et à entrer en conflits avec ces derniers. »[13].

L’absence de norme commune et une concurrence non limitée

Les lois d’Asimov n’ont évidemment pas eu des effets qu’en Europe. « Les lois de la robotique d’Asimov ont, de façon notable, inspiré certaines propositions normatives. Ce fut notamment le cas d’un projet sud-coréen de charte éthique d la robotique intégrant une section dédiée aux droits et obligations des robots. »[14].

L’organisation internationale Human RighTS wATCH A Même fait un rapport pour tenter de poser les bases pour un futur traité

Mais au-delà de limites terminologiques sur ces lois qui peuvent être contredites, elles ne sont ni officiellement reconnues par une quelconque loi nationale, ni par un Traité dont le but aurait pu être de réguler l’utilisation de telles armes. L’organisation internationale Human Rights Watch a même fait un rapport pour tenter de poser les bases pour un futur traité dont le but serait de limiter l’utilisation d’armes autonomes dites « robots tueurs »[15].

« Cette autonomisation, qui aurait pour corollaire un désengagement de l’être humain du champ de bataille, transformerait assurément la physionomie de la guerre qui n’aurait plus comme limites que les capacités de robots, démultipliées par rapport à celles des êtres humains. »[16]. La France se retrouve donc avec une balance à faire entre prendre part à la création de nouvelles armes, sans limite, pour pallier à l’amélioration des armées d’ennemis potentiels, et garder un recul sur une technologie encore peu connue pour préserver l’humanité d’un danger de moins en moins hypothétique.

Conclusion

La France doit donc intégrer rapidement l’intelligence artificielle en développant ses stratégies de politiques extérieures, pour faire face à la montée de ses concurrents, qu’ils soient étatiques ou non. La seule question qui subsiste, du fait de l’état actuel de l’avancement sur ces technologies, reste l’éthique. Les lois d’Asimov sont une bonne base pour développer une législation, mais dans lorsqu’il s’agit de guerres, il n’y a plus de normes, plus de règles. Par définition, intégrer l’intelligence artificielle à son armée, c’est rechercher à combattre d’autres humains et donc à faire des dégâts. Sans aller jusqu’à tomber dans la science-fiction, il est possible de se demander alors qu’elles seraient les conséquences si toutes les armées étaient robotisées. Comment saurons-nous qui est le gagnant ? Comment atteindre les personnes aux commandes ? Ces questions sont difficiles à répondre sans penser aux populations civiles qui pourront faire l’objet de dommages collatéraux. L’humain doit donc bien rester au centre des préoccupations.


[1]VILLANI, Cédric. Les Enjeux politiques de l’IA. Pouvoirs, L’intelligence artificielle, septembre 2019, n°170, p. 8.

[2]Normes ISO (ISO/IEC 2382-28, 1995)

[3]GAUTIER, Louis. La guerre augmentée ? Enjeux et défis de l’IA dans les conflits futurs. Pouvoirs, L’intelligence artificielle, septembre 2019, n°170, p. 88.

[4]Gouvernement Chinois, Plan de développement de l’intelligence artificielle de nouvelle génération, 2017.

[5]CB Insights, Top AI Trends To Watch In 2018, 2017, https://www.cbinsights.com/reports/CB-Insights_State-of-Artificial-Intelligence-2018.pdf (consulté le 28 avril 2021)

[6]Secrétariat Général de la Défense et de la Sécurité Nationale. France Intelligence Artificielle. Chocs Futurs. Rapport de synthèse. Mars 2017.

[7]GAUTIER, Louis. La guerre augmentée ? Enjeux et défis de l’IA dans les conflits futurs. Pouvoirs, L’intelligence artificielle, septembre 2019, n°170, p. 84.

[8]JUNIPER Research. Self-driving cars to take off by 2021, approaching 20M on road by 2025. Disponible sur : <https://www.juniperresearch.com/press/self-driving-cars-take-off-by-2021-approaching-20m?utm_source=juniperpr&utm_medium=email&utm_campaign=Autonomous_Vehicles_15_PR1>. (consulté le 28 avril 2021)

[9]Australian Government, Department of Defense. Australian-built aircraft military milestone. Disponible sur : <https://news.defence.gov.au/capability/australian-built-aircraft-military-milestone> (consulté le 28 avril 2021).

[10]ASIMOV, Isaac. Cercle vicieux (Runaround). Astounding Science Fiction, mars 1942.

[11]Commission des affaires juridiques du Parlement européen. Recommandations à la Commission européenne concernant des règles de droit civil sur la robotique. Mai 2016.

[12]GAUTIER, Louis. La guerre augmentée ? Enjeux et défis de l’IA dans les conflits futurs. Pouvoirs, L’intelligence artificielle, septembre 2019, n°170, p. 93

[13]NDIOR, Valère. Ethique et conscience des robots. Pouvoirs, L’intelligence artificielle, septembre 2019, n°170, p. 60.

[14]NDIOR, Valère. Ethique et conscience des robots. Pouvoirs, L’intellig.ence artificielle, septembre 2019, n°170, p. 65.

[15]Human Rights Watch. Nouvelles armes, précédents avérés : Éléments et modèles pour un traité sur les robots tueurs.  Disponible sur <https://www.hrw.org/report/2020/10/20/new-weapons-proven-precedent/elements-and-models-treaty-killer-robots> (consulté le 2 mai 2021).

[16]Supra n°6.