Dans un article récent, le New York Times a mis en lumière l’utilisation inédite et inquiétante de l’intelligence artificielle (IA) par Israël dans sa guerre contre Ghaza et le Liban, soulevant des préoccupations éthiques majeures et des risques potentiels pour l’avenir des conflits armés.
Depuis octobre 2023, l’armée israélienne a déployé des technologies de pointe en IA, qui, bien que techniquement avancées, posent des questions sérieuses sur la sécurité et la moralité de leur utilisation sur le terrain de bataille.
Le New York Times révèle que ces technologies, telles que les systèmes de localisation, de reconnaissance faciale et d’analyse de contenu en arabe, ont été intégrées dans les stratégies militaires israéliennes. Parmi les premières utilisations de ces outils figure une tentative d’assassinat du dirigeant du Hamas, Ibrahim Biari, où l’IA a joué un rôle central dans la localisation de la cible à travers des analyses audio des communications téléphoniques, développées par l’unité 8200 de l’armée israélienne. Cependant, cette attaque a non seulement entraîné la mort du leader, mais a également coûté la vie à plus de 125 civils palestiniens, selon l’organisation Airwars. Au fil des mois, Israël a intensifié l’usage de l’IA dans ses frappes militaires, en particulier à travers des systèmes de reconnaissance faciale utilisés sur les points de contrôle entre le nord et le sud de Ghaza. Ces technologies sont capables de scanner les visages des Palestiniens, en les identifiant et en facilitant la sélection des cibles. De plus, un modèle linguistique en arabe a été mis en place pour analyser les publications et les communications électroniques à travers divers dialectes, une innovation qui permettrait une surveillance massive et un contrôle plus précis des informations. Cependant, malgré leurs avantages évidents, ces innovations ont également soulevé des inquiétudes éthiques et pratiques. Des officiers israéliens ont reconnu que certaines de ces technologies ont commis des erreurs, entraînant des arrestations erronées et des victimes civiles. La chercheuse en IA et ancienne directrice du Conseil de sécurité israélien, Hadass Lorber, a averti que sans régulations strictes, l’utilisation de l’IA pourrait mener à des conséquences graves, affectant non seulement l’efficacité militaire, mais aussi la protection des droits humains. Les avancées de l’IA ont également permis à l’armée israélienne de réagir plus rapidement aux événements, comme le démontre l’analyse des réactions populaires après l’assassinat de Hassan Nasrallah, leader du Hezbollah, en septembre 2024. Grâce à l’analyse de l’IA, les autorités israéliennes ont pu évaluer rapidement les réponses du public au Liban, mais cela n’a pas été sans erreurs, le robot ayant parfois mal interprété les expressions locales. Néanmoins, l’armée israélienne considère ces outils comme un moyen de gagner du temps précieux dans un environnement de guerre de plus en plus numérique. Les experts occidentaux s’accordent à dire que l’utilisation actuelle de l’IA par Israël dans le cadre du conflit de 2023-2024 marque un tournant dans la manière dont les guerres pourraient être menées à l’avenir. Des responsables américains et européens mettent en garde contre un modèle de guerre fondé sur des algorithmes capables de commettre des erreurs graves, ce qui pourrait mettre en péril la vie de civils et remettre en cause la légitimité des opérations militaires. Pour l’instant, Israël semble avoir pris une longueur d’avance avec ses innovations technologiques, qui ne manquent pas de faire débat. Mais à l’avenir, les conflits armés pourraient bien être dominés par des machines et des algorithmes, laissant les questions éthiques et humaines à la traîne dans les calculs militaires. La guerre à Ghaza et au Liban pourrait bien être le laboratoire de cette nouvelle ère de guerre automatisée, où l’IA pourrait décider du sort de millions de vies humaines. L’utilisation croissante de l’intelligence artificielle dans les conflits armés soulève des questions fondamentales sur la sécurité, l’éthique et la justice. Alors que ces technologies continuent de se développer, il est crucial de mettre en place des régulations internationales pour encadrer leur usage en temps de guerre, afin de protéger les civils et de prévenir les dérives.
M. Seghilani