L’Express

A Gaza, l’IA de l’armée israélienne au centre des critiques

Des soldats israéliens en opération dans la bande de Gaza. Photo distribuée le 2 février par l'armée israélienne




Le débat sur l’utilisation de l’intelligence artificielle fait irruption sur le théâtre de la guerre à Gaza. L’alerte est venue du secrétaire général de l’ONU qui s’est dit, vendredi 5 avril, « profondément perturbé » par des informations faisant état de l’utilisation par Israël de l’IA pour identifier des cibles à Gaza, refusant, dit-il, que des « décisions de vie ou de mort » soient déléguées à des algorithmes. »Je suis profondément perturbé par les informations disant que la campagne de bombardements de l’armée israélienne inclut l’intelligence artificielle comme outil pour identifier des cibles, particulièrement dans des zones résidentielles densément peuplées, conduisant à un nombre élevé de victimes civiles », a déclaré Antonio Guterres à la presse. »Aucune portion de décisions de vie ou de mort qui ont un impact sur des familles entières ne devrait être déléguée au calcul froid d’algorithmes », a-t-il insisté.Un programme de l’armée israélienneA quoi le patron de l’ONU fait-il référence ? Une enquête publiée par les médias +972 Magazine et Local Call, reprise par plusieurs publications américaines cette semaine, décrit l’existence d’un programme de l’armée israélienne baptisé Lavender qui utilise l’intelligence artificielle pour identifier des cibles à Gaza, avec une certaine marge d’erreur.Selon ces médias indépendants, qui s’appuient sur six « officiers de renseignement israéliens », le programme « a joué un rôle central » pendant les premières semaines des bombardements israéliens sur la bande de Gaza. Les militaires, selon eux, « traitaient les productions de la machine d’intelligence artificielle comme si c’était une décision humaine ». Selon deux des sources citées, l’armée a aussi décidé que pour chaque membre « junior » du Hamas détecté par « Lavender », il était « permis » de tuer, comme victimes collatérales, 15 à 20 civils. Le ratio montait à 100 civils pour un commandant du mouvement islamiste palestinien. »Ils ont collecté des informations sur quelques centaines de combattants avérés du Hamas et, à partir de leurs données, ils ont demandé à la machine d’identifier des Palestiniens présentant des données semblables, qui sont alors devenues des cibles potentielles d’assassinat », détaille Meron Rapoport, rédacteur en chef du site israélien Local Call, dont les propos ont été repris par Courrier international.Ce sont ainsi 37 000 personnes qui auraient été désignées comme des « cibles » à Gaza. L’enquête indique également que la précision de ces cibles aurait été sacrifiée au profit de la vitesse. La partie « vérification humaine », qui permet de s’assurer que la personne visée est bien la bonne, a été réduite au minimum, « pas plus de vingt secondes dans certains cas », détaille le journaliste. « Par conséquent, de plus en plus de civils sont touchés et non plus uniquement des membres du Hamas », assure Meron Rapoport qui estime que la marge d’erreur de l’armée se situe autour « de 10 % ».Israël essaie de « réduire les dommages causés aux civils »Du côté d’Israël, un porte-parole de l’armée a déclaré à CNN que l’IA n’était pas utilisée pour « identifier des terroristes présumés », mais n’a pas contesté l’existence du système Lavender qu’il décrit comme « de simples outils destinés aux analystes dans le processus d’identification des cibles ». Les analystes « doivent mener des examens indépendants, au cours desquels ils vérifient que les cibles identifiées répondent aux définitions pertinentes conformément au droit international et aux restrictions supplémentaires stipulées dans les directives de Tsahal […] Israël essaie de réduire les dommages causés aux civils dans la mesure du possible dans les circonstances opérationnelles en vigueur au moment de la frappe », assure-t-il à la chaîne américaine. »Contrairement aux accusations, l’armée israélienne n’utilise pas de système d’intelligence artificielle pour identifier des opérateurs terroristes ou essayer de prédire quelle personne est un terroriste », a répondu encore vendredi l’armée israélienne aux questions de l’AFP, admettant simplement l’existence d’une « base de données ».Des explications qui ont du mal à convaincre le patron de l’ONU. « Je mets en garde depuis des années contre les dangers de transformer en armes l’intelligence artificielle et de réduire le rôle essentiel de l’intervention humaine », a souligné Antonio Guterres. « L’IA devrait être utilisée comme une force du bien, au bénéfice du monde, et non pas contribuer à la guerre à un niveau industriel, brouillant la responsabilité », affirme le secrétaire général des Nations unies.L’IA déjà présente au sein de l’arméeIsraël ne cache pas travailler à des outils d’IA dans son armée. L’armée revendique avoir mené la « première guerre par l’IA » durant onze jours en mai 2021 à Gaza. Le chef d’état-major à l’époque, Aviv Kochavi, déclarait l’an dernier au site d’information israélien Ynet que l’IA avait permis de générer « 100 nouvelles cibles chaque jour », contre « 50 » par an dans la bande de Gaza « dans le passé ».D’après un blog du site de l’armée israélienne, plus de 12 000 cibles avaient ensuite été identifiées en 27 jours, grâce à une technologie nommée Gospel. Selon un responsable cité anonymement, cet outil a sélectionné des cibles « pour des attaques précises des infrastructures associées au Hamas, infligeant des dommages importants à l’ennemi, tout en causant à ceux non impliqués le moins de tort possible ». Mais un ancien officier des renseignements israéliens s’exprimant sous couvert de l’anonymat soutenait en novembre au +972 Magazine que cette technologie était en train de se transformer en « une fabrique d’assassinats de masse ». »Le degré de contrôle humain est bas »Interrogé par l’AFP, Alessandro Accorsi, expert pour l’organisation de résolution des conflits Crisis Group, a jugé l’information « très inquiétante ». « C’est apocalyptique. Il est clair que le système peut halluciner, que le degré de contrôle humain est bas », a-t-il relevé. « Il y a des milliers de questions autour de ça à l’évidence, à quel point c’est moral de l’utiliser, mais ce n’est pas surprenant. » Pour Johann Soufi, avocat international et ex-directeur du bureau juridique de l’Unrwa (l’agence onusienne pour les réfugiés palestiniens) à Gaza, ces méthodes « violent tous les principes cardinaux du droit international humanitaire », dont la distinction entre combattants et civils, la précaution et la proportionnalité.Elles « constituent indiscutablement des crimes de guerre », a-t-il dénoncé sur X, posant même la question de « crimes contre l’humanité, tant le ratio (20 civils tués/1 combattant junior, et 100/1 commandant) suggère une volonté d’attaquer de manière systématique et généralisée la population civile gazaouie ».En plein drame humanitaire à Gaza, la mort, lundi 1er avril, dans des frappes israéliennes de sept travailleurs de l’ONG World Central Kitchen (WCK) et ses révélations sur l’utilisation de l’IA ne sont pas de nature à éteindre le mécontentement international.



Source link : https://www.lexpress.fr/monde/proche-moyen-orient/a-gaza-lia-de-larmee-israelienne-au-centre-des-critiques-2DL3DYAKQZDJBDX56EG3DGBNNM/

Author :

Publish date : 2024-04-05 20:23:07

Copyright for syndicated content belongs to the linked Source.

Tags : L’Express

123 589 30 682 517069 503917 511633 532179 493954