Rechercher
Rechercher

Moyen-Orient - Conflit Hamas-Israël

« Lavender », cette intelligence artificielle israélienne utilisée pour le ciblage de civils à Gaza

Un autre système d'intelligence artificielle, appelé « Where's Daddy ? », serait utilisé par l'armée israélienne pour suivre les personnes ciblées, selon des médias israéliens.

« Lavender », cette intelligence artificielle israélienne utilisée pour le ciblage de civils à Gaza

Des volutes de fumée s'élèvent après une frappe israélienne sur Rafah, dans le sud de la bande de Gaza, le 4 avril 2024. Photo Said Khatib / AFP

Une récente enquête menée conjointement par le magazine en ligne d'information et d'opinion de gauche israélien +972 et le site d'information en hébreu Local Call révèle l'existence d'un programme d'intelligence artificielle appelé «Lavender», développé par l'armée israélienne. Ce programme aurait joué un rôle important dans le ciblage des Palestiniens, en particulier au cours des premières phases du récent conflit à Gaza.

Selon six anciens officiers des services de renseignement contactés par les deux médias israéliens et directement impliqués dans l'utilisation de l'IA pour le ciblage, Lavender est conçu pour identifier des cibles potentielles à assassiner au sein des ailes militaires du mouvement Hamas et du Jihad islamique palestinien, y compris des individus de rang inférieur. Au cours de la première phase du conflit, l'armée s'est fortement appuyée sur Lavender, marquant environ 37.000 Palestiniens comme militants présumés pour d'éventuelles frappes aériennes, ainsi que leurs lieux de résidence.

Lire aussi

Israël veut-il provoquer une escalade régionale ?

L'enquête souligne que les militaires faisaient largement confiance aux décisions de Lavender, traitant ses résultats «comme s'il s'agissait d'une décision humaine». Le personnel se contentait souvent d'approuver les choix de la machine, passant un minimum de temps à vérifier les cibles avant d'autoriser les bombardements.

Tout en sachant que Lavender commet des erreurs dans environ 10 % des cas et qu'il identifie parfois des individus qui n'ont que peu ou pas de liens avec des groupes militants, l'armée a approuvé des frappes aériennes sur des cibles marquées avec peu d'attention. En particulier, les frappes aériennes visaient principalement des personnes à leur domicile, souvent la nuit lorsque les familles étaient présentes, car cela était jugé plus facile du point de vue du renseignement.

Un autre système d'intelligence artificielle

En outre, l'enquête révèle l'utilisation d'un autre système d'intelligence artificielle appelé « Where's Daddy ? » (Où est papa ?) pour suivre les personnes ciblées et mener des bombardements lorsqu'elles se trouvaient à l'intérieur de leur résidence familiale.

Les conséquences de ces actions ont été graves : des milliers de Palestiniens, dont de nombreux non-combattants, ont été tués par des frappes aériennes, en particulier au début du conflit. La préférence de l'armée pour les missiles non guidés plutôt que pour les bombes de précision a entraîné d'importants dommages collatéraux, notamment la destruction de bâtiments entiers et la perte de vies civiles.

Contrairement aux pratiques antérieures, l'armée a autorisé d'importantes pertes civiles lors des assassinats ciblés, permettant notamment de tuer jusqu'à 15 ou 20 civils pour chaque agent subalterne du Hamas marqué par Lavender. En outre, des hauts responsables du Hamas ont été pris pour cible, ce qui a parfois entraîné la mort de plus de 100 civils au cours d'une seule frappe aérienne.

L'enquête s'articule autour de six étapes chronologiques du processus de ciblage automatisé de l'armée israélienne au cours des premières semaines de la guerre de Gaza, qui a débuté le 7 octobre 2023.

Une récente enquête menée conjointement par le magazine en ligne d'information et d'opinion de gauche israélien +972 et le site d'information en hébreu Local Call révèle l'existence d'un programme d'intelligence artificielle appelé «Lavender», développé par l'armée israélienne. Ce programme aurait joué un rôle important dans le ciblage des Palestiniens, en particulier au cours des...

commentaires (10)

Bonjour, j'aime lire votre journal pcq je trouve les articles de grande qualité libres et indépendants, et c'est un plaisir...Un grand très grand bémol cependant, je n'arrive pas à aller au bout des articles, PB technique qui me laisse sur ma faim et me frustre bcp .. comment faire... ? merci pour votre retour et continuer à informer avec des articles complets ...

Marie Agop

09 h 35, le 08 avril 2024

Tous les commentaires

Commentaires (10)

  • Bonjour, j'aime lire votre journal pcq je trouve les articles de grande qualité libres et indépendants, et c'est un plaisir...Un grand très grand bémol cependant, je n'arrive pas à aller au bout des articles, PB technique qui me laisse sur ma faim et me frustre bcp .. comment faire... ? merci pour votre retour et continuer à informer avec des articles complets ...

    Marie Agop

    09 h 35, le 08 avril 2024

  • Moi je me demande si les banques libanaises n’ont pas utilisé un truc de ce style pour cibler les investissements de l’argent de leurs déposants…

    Gros Gnon

    08 h 05, le 06 avril 2024

  • Erratum : je voulais écrire " moritifère " (et non mortifié) .

    Politiquement incorrect(e)

    20 h 36, le 05 avril 2024

  • Intelligence artificielle pour pallier la stupidité mortifié de ses utilisateurs. En vue d'aboutir à une Solution Finale. Vous avez dit " génocide"? How shocking !

    Politiquement incorrect(e)

    19 h 48, le 05 avril 2024

  • L’OLJ, il faut savoir. Le titre dit que cette intelligence artificielle a été conçue pour cibler les civils et une ligne plus loin, pour cibler des membres du Hamas et du Jihad islamique… pour votre gouverne, ces gens là ne sont des civils et ont organisé eux mêmes le massacre des palestiniens en déclarant la guerre à un pays super armé alors que le peuple ne possède ni abris pour s’y réfugier, ni provisions alimentaires ni infrastructures pour pouvoir les évacuer et les mettre hors du danger. Les libanais subiront le même sort s’ils laissent ces assassins les jeter dans une guerre injustifiée

    Sissi zayyat

    17 h 36, le 05 avril 2024

  • Décrire q un criminel mérite d être juger par la cour internationale de justice ,et ceci avec tout le respect à vos lecteurs vous trouvez cela irrespectueux pour être publier. C’ est à ce demander si vous méritez qu on s’intéresse à vos articles.

    Jimmy Barakat

    15 h 25, le 05 avril 2024

  • Je n’aurais pas besoin d’IA pour détruire la peuple hébreu !

    Sberna Salvatore

    15 h 21, le 05 avril 2024

  • Un crime est un crime et un criminel est un criminel, l’outil importe peu et de toute façon dans cette tranche d’« Histoire » nous ne pouvons retenir que la volonté de détruire, d’effacer, la volonté « génocidaire ». L’expérimentation sur les Palestiniens et les Libanais - les mêmes méthodes et les mêmes outils ont du être utilisées au cours des frappes sur le Liban - permettra de mieux “vendre” ces outils de destruction massive à tous les potentat de la région et d’ailleurs. Il y a de la data derrière ! Abjecte !

    Saïd

    10 h 58, le 05 avril 2024

  • C’est facile de se dédouaner derrière une IA mais au final il y a tout de même une volonté humaine d’orchestrer un massacre…

    Masson Jean-Daniel

    10 h 29, le 05 avril 2024

  • Assassins et génocidaires. L’histoire ne vous oubliera pas.

    Mohamed Melhem

    05 h 23, le 05 avril 2024

Retour en haut