Site icon Top Geek Blog

Guerre 2.0 : l’IA est déjà sur le front – découvrez pourquoi les experts sont terrifiés

Pourquoi l’IA dans la guerre nous concerne tous

Lors de « The Big Interview » organisé par Wired, Mariarosaria Taddeo, experte en éthique numérique à l’Université d’Oxford, a tiré la sonnette d’alarme sur l’usage croissant de l’intelligence artificielle dans les conflits armés. Elle souligne que ces technologies, loin d’être de simples outils, redéfinissent la manière dont se joue la bataille, et que leur régulation ne peut plus être une option, mais une urgence mondiale.

Un arsenal invisible et omniprésent

Contrairement aux armes traditionnelles, les systèmes d’IA en opération de guerre ne sont pas des objets que l’on achète et stocke dans un dépôt. Il s’agit majoritairement de services, souvent fournis en mode SaaS (Software as a Service) par de grandes plateformes. Taddeo explique :

En Ukraine, par exemple, l’entreprise a déployé des algorithmes d’analyse spatiale pour organiser la défense et les frappes stratégiques. Ces solutions créent des quantités astronomiques de données qui restent la propriété des fournisseurs, soit des entreprises privées dotées d’un pouvoir inédit.

Feudalisme digital : quand les plateformes tirent les ficelles

Taddeo parle de « feudalisme digital » pour décrire cette nouvelle forme de dépendance :

Elle rappelle que les alliances peuvent se retourner : « Aujourd’hui, les États-Unis et l’Ukraine collaborent étroitement, mais dans six mois, cela pourrait changer. »

Les risques d’une déshumanisation du conflit

Sans garde-fous, l’IA peut conduire à une escalade involontaire ou, pire, à une « automatisation du génocide ». Selon Mark Brakel, directeur politique du Future of Life Institute et figure clé de l’AI Act européen :

Brakel critique également l’exclusion formelle des applications militaires dans l’AI Act : « La première phrase du règlement stipule l’exception pour l’usage défensif. C’est un trou béant dans la législation. »

Killer robots : vers une course à l’armement algorithmique

Les systèmes autonomes d’engagement (« killer robots ») représentent un autre défi colossal. Capables de détecter, sélectionner et neutraliser une cible sans instruction humaine, ces machines interrogent le droit international et la morale :

Taddeo et Brakel plaident pour des accords internationaux de non-prolifération, comparables à ceux sur les armes chimiques ou nucléaires, afin d’éviter une course aux algorithmes mortels.

Transformer l’éthique en lignes directrices concrètes

Face à la complexité de ces enjeux, Taddeo insiste sur la nécessité de traduire les principes éthiques en véritables processus de gouvernance :

En s’appuyant sur son expérience au sein du conseil éthique du ministère de la Défense britannique, elle rappelle qu’une vraie gouvernance doit être agile et capable de s’adapter aux innovations rapides du secteur.

Une approche européenne face aux polarités globales

Taddeo croit que l’Europe peut jouer un rôle de leader grâce à son approche équilibrée, entre le tout-réglementation des États-Unis et l’impunité technologique de la Russie. Elle propose :

Cette vision prône une politique de défense responsable, où l’innovation technologique est mise au service de la sécurité et du respect des droits humains.

Quitter la version mobile