L'IA meurtrière : le programme militaire israélien "Lavender" pointé du doigt pour ses taux d'erreur élevés à Gaza

Publié le 04/04/2024
مدونة ذكاء


Une enquête médiatique israélienne a révélé que le programme militaire "Lavender", basé sur l'intelligence artificielle (IA) et utilisé pour identifier les cibles des bombardements à Gaza, présentait des taux d'erreur élevés. Ce système aurait été utilisé pour dresser une "liste de victimes" d'au moins 37 000 personnes à Gaza, avec une surveillance humaine minimale.

Les actions militaires d'Israël, guidées par l'IA, ont entraîné des milliers de victimes palestiniennes, y compris des femmes et des enfants. L'armée israélienne aurait assoupli ses règles concernant les pertes civiles, renforçant les préoccupations éthiques.

Le Hamas exige un cessez-le-feu permanent et d'autres conditions, tandis que les États-Unis font des efforts de médiation pour la paix. Les tensions internationales s'accentuent avec le décès d'un travailleur humanitaire polonais en Pologne et la violence à Gaza et au Yémen.

Des familles israéliennes protestent pour la libération de leurs proches kidnappés par le Hamas au milieu du conflit. Le 30 avril, un panel de journalistes discutera de la crise, après le refus d'Israël d'utiliser l'IA pour identifier les terroristes et son engagement à respecter le droit international.

L'utilisation de l'IA dans les conflits militaires soulève des préoccupations éthiques et peut entraîner des conséquences imprévues. Les erreurs et inexactitudes du contenu généré par l'IA peuvent avoir des conséquences graves, surtout dans des contextes sensibles comme les conflits armés.

Cette situation souligne la nécessité d'une surveillance humaine et d'une utilisation responsable de l'IA dans les conflits militaires pour minimiser les pertes civiles et respecter le droit international.