Pourquoi l’IA dans la guerre nous concerne tous
Lors de « The Big Interview » organisé par Wired, Mariarosaria Taddeo, experte en éthique numérique à l’Université d’Oxford, a tiré la sonnette d’alarme sur l’usage croissant de l’intelligence artificielle dans les conflits armés. Elle souligne que ces technologies, loin d’être de simples outils, redéfinissent la manière dont se joue la bataille, et que leur régulation ne peut plus être une option, mais une urgence mondiale.
Un arsenal invisible et omniprésent
Contrairement aux armes traditionnelles, les systèmes d’IA en opération de guerre ne sont pas des objets que l’on achète et stocke dans un dépôt. Il s’agit majoritairement de services, souvent fournis en mode SaaS (Software as a Service) par de grandes plateformes. Taddeo explique :
- « On n’achète pas un tank, on loue un service d’analyse de données. »
- « Ces acteurs, comme Palantir, imposent leurs propres règles : leur assistance technique est indispensable pour faire fonctionner l’outil. »
En Ukraine, par exemple, l’entreprise a déployé des algorithmes d’analyse spatiale pour organiser la défense et les frappes stratégiques. Ces solutions créent des quantités astronomiques de données qui restent la propriété des fournisseurs, soit des entreprises privées dotées d’un pouvoir inédit.
Feudalisme digital : quand les plateformes tirent les ficelles
Taddeo parle de « feudalisme digital » pour décrire cette nouvelle forme de dépendance :
- Les gouvernements abandonnent leur souveraineté technologique au profit de prestataires.
- Les seuls à maîtriser le code, l’infrastructure et les mises à jour sont les fournisseurs de service.
- En cas de rupture contractuelle ou de fluctuation géopolitique, les États perdent le contrôle des systèmes d’armes.
Elle rappelle que les alliances peuvent se retourner : « Aujourd’hui, les États-Unis et l’Ukraine collaborent étroitement, mais dans six mois, cela pourrait changer. »
Les risques d’une déshumanisation du conflit
Sans garde-fous, l’IA peut conduire à une escalade involontaire ou, pire, à une « automatisation du génocide ». Selon Mark Brakel, directeur politique du Future of Life Institute et figure clé de l’AI Act européen :
- « L’absence de cadre pour l’IA militaire autorise des décisions létales sans intervention humaine directe. »
- « L’escalade peut devenir incontrôlable si les algorithmes interprètent mal des signaux faibles. »
Brakel critique également l’exclusion formelle des applications militaires dans l’AI Act : « La première phrase du règlement stipule l’exception pour l’usage défensif. C’est un trou béant dans la législation. »
Killer robots : vers une course à l’armement algorithmique
Les systèmes autonomes d’engagement (« killer robots ») représentent un autre défi colossal. Capables de détecter, sélectionner et neutraliser une cible sans instruction humaine, ces machines interrogent le droit international et la morale :
- Qui porte la responsabilité d’une bavure ?
- Comment garantir l’intervention d’un humain avant toute frappe létale ?
- Faut-il interdire purement et simplement ces technologies ?
Taddeo et Brakel plaident pour des accords internationaux de non-prolifération, comparables à ceux sur les armes chimiques ou nucléaires, afin d’éviter une course aux algorithmes mortels.
Transformer l’éthique en lignes directrices concrètes
Face à la complexité de ces enjeux, Taddeo insiste sur la nécessité de traduire les principes éthiques en véritables processus de gouvernance :
- Établir des critères inacceptables : définir clairement ce qui ne peut jamais être automatisé (ciblage de populations civiles, exécutions sommaires, etc.).
- Développer des lignes directrices : des manuels d’utilisation pour les décideurs, intégrant des évaluations de risque, des audits réguliers et des obligations de transparence.
- Mettre en place un contrôle humain effectif à chaque phase critique : validation, mise en production, surveillance en temps réel.
- Créer des mécanismes de sanction pour les entreprises ou États qui violeraient ces règles, dissuadant la tentation d’une utilisation sans garde-fous.
En s’appuyant sur son expérience au sein du conseil éthique du ministère de la Défense britannique, elle rappelle qu’une vraie gouvernance doit être agile et capable de s’adapter aux innovations rapides du secteur.
Une approche européenne face aux polarités globales
Taddeo croit que l’Europe peut jouer un rôle de leader grâce à son approche équilibrée, entre le tout-réglementation des États-Unis et l’impunité technologique de la Russie. Elle propose :
- De lancer des négociations internationales sur l’usage militaire de l’IA.
- De mettre en place un observatoire européen chargé de recenser les technologies employées en zone de conflit et d’évaluer leur conformité aux standards humanitaires.
- D’imposer des audits indépendants des systèmes d’IA avant leur déploiement sur le terrain.
Cette vision prône une politique de défense responsable, où l’innovation technologique est mise au service de la sécurité et du respect des droits humains.