C'est un sujet de moins en moins tabou qui attesterait de la supériorité technologique d'Israël dans ce domaine et qui le classerait dans le TOP 3 des nations (derrière les Etat-Unis et peut-être bien même devant la Chine) : son emploi de l'intelligence artificielle en situation de guerre. Donc comme à Gaza en ce moment.
Mais qui n'est pas sans soulever quelques problèmes "éthiques"
Des experts remettent en question l'utilisation de l'intelligence artificielle par Israël à Gaza
« Soit l'IA est aussi performante que ce qui est affirmé, et l'armée israélienne n'a cure des dommages collatéraux, soit alors l'IA n'est pas aussi performante qu'on le dit », affirme un professeur d'IA.
L'armée israélienne a affirmé que l'intelligence artificielle (IA) l'aide à cibler les membres du mouvement Hamas dans la guerre en cours à Gaza, mais des experts de divers bords se posent des questions sur l'efficacité de cette utilisation, d'autant plus que le nombre de victimes civiles se chiffre par dizaines de milliers et ne cesse de grimper.
Depuis le début de la guerre, déclenchée en octobre 2023 par une attaque sanglante du mouvement islamiste sur le sud d'Israël, les représailles militaires de l'État hébreu ont fait plus de 30 300 morts à Gaza, selon le ministère de la Santé local palestinien. L'armée, qui affirme avoir « éliminé 10 000 terroristes », n'a pas souhaité faire de commentaire supplémentaire, tout en assurant frapper « uniquement des cibles militaires » et prendre « les mesures possibles pour atténuer les dommages aux civils ».
« Soit l'IA est aussi performante que ce qui est affirmé, et l'armée israélienne n'a cure des dommages collatéraux, soit alors l'IA n'est pas aussi performante qu'on le dit », remarque Toby Walsh, professeur d'intelligence artificielle à l'Université New South Wales, en Australie, interrogé par l'AFP.
« Attaques précises »
L'armée israélienne revendique avoir mené « la première guerre par l'IA » pendant onze jours en mai 2021 à Gaza. Le chef d'état-major à l'époque, le général Aviv Kochavi, déclarait en 2023 au site d'information israélien Ynet que l'IA avait permis de générer « 100 nouvelles cibles chaque jour », contre « 50 » par an à Gaza « dans le passé ».
L'attaque menée le 7 octobre par des membres du Hamas infiltrés depuis Gaza dans le sud d'Israël a causé la mort d'au moins 1 160 personnes, en majorité des civils, selon un décompte de l'AFP réalisé à partir de données officielles israéliennes.
D'après un blog du site de l'armée, plus de 12 000 cibles ont ensuite été identifiées en 27 jours, grâce à la technologie d'IA nommée Gospel. Un responsable cité anonymement estime que cet outil a sélectionné des cibles « pour des attaques précises des infrastructures associées au Hamas, infligeant des dommages importants à l'ennemi, tout en causant le moins de tort possible à ceux non impliqués ».
Mais un ancien officier des renseignements israéliens, s'exprimant aussi sous le couvert de l'anonymat, soutenait en novembre dernier au journal d'investigation israélo-palestinien indépendant +972 Magazine que cette technologie était en train de se transformer en « une fabrique d'assassinats de masse ».
Citant une source des renseignements, le journal rapporte que Gospel avalait quantité de données, plus rapidement que « des dizaines de milliers d'agents du renseignement », et permettait d'identifier en temps réel des sites pouvant être des lieux de résidence de combattants supposés. Le type de données et les critères de ciblage n'étaient pas détaillés.
Plusieurs experts indiquent à l'AFP que l'armée peut nourrir l'outil avec des images venant de drones, des messages sur les réseaux sociaux, des informations recueillies sur le terrain par des espions, des localisations téléphoniques, notamment.
Une fois une cible sélectionnée, la technologie peut utiliser les sources officielles concernant la population pour estimer la probabilité de dommages aux civils.
« Données douteuses »
Mais pour Lucy Suchman, professeure d'anthropologie des sciences et technologies à l'Université de Lancaster, au Royaume-Uni, l'idée que davantage de données produiraient un meilleur ciblage est fausse. Les algorithmes sont entraînés pour trouver des motifs répétés dans les données. Chaque motif précédemment identifié comme cible peut donc générer une nouvelle cible, explique-t-elle. Les « hypothèses discutables » dans l'interprétation des données risquent ainsi d'être amplifiées.
« En d'autres termes, plus il y a de données douteuses, plus le système est mauvais », d'après elle. Les Israéliens ne sont pas les premiers à déployer des méthodes de ciblage automatisées sur les terrains de guerre. Pendant la guerre du Golfe en 1990-1991, l'armée américaine a eu recours aux algorithmes pour améliorer ses frappes. Elle a aussi travaillé avec les outils d'analyse de données de la société Palantir à l'occasion de la guerre en Afghanistan menée après les attentats du 11 septembre 2001.
En 1999 au Kosovo, durant la campagne de bombardement des cibles militaires serbes, l'OTAN a commencé à utiliser les algorithmes pour évaluer le nombre de victimes civiles potentielles. Ces technologies sont-elles, pour autant, dignes de confiance ?
Même si l'armée israélienne est « l'une des plus pointues technologiquement », « les chances qu'elle utilise l'IA avec un tel degré de sophistication et d'autonomie sont très faibles », estimait l'analyste Noah Sylvia pour le centre de réflexion britannique sur la défense Rusi, en février dernier. Et d'ajouter que les humains devraient encore recouper tout résultat.
https://www.lorientlejour.com/article/1 ... -gaza.html