jeudi 26 décembre 2024

Tuer grâce à l'intelligence artificielle: cibler éventuellement les récalcitrants? Le pourcentage d'erreur est de combien de balles?

 


Aujourd'hui, une arme létale gérée par l'intelligence artificielle pour tuer des terroristes, et demain pour tuer qui?

Des dissidents, des non-vaccinés, des itinérants, des croyants se réunissant dans un parc?

"Israël a franchi une nouvelle ligne dans l’automatisation de la guerre. Les Forces de défense israéliennes ont développé un programme soutenu par l’intelligence artificielle (IA) pour sélectionner les victimes de ses bombardements, un processus qui doit traditionnellement être vérifié manuellement jusqu’à ce qu’une personne puisse être confirmée comme cible. Baptisé Lavender, ce système a identifié 37 000 Palestiniens comme cibles potentielles au cours des premières semaines de la guerre, et entre le 7 octobre et le 24 novembre, il a été utilisé dans au moins 15 000 meurtres lors de l’invasion de Gaza, selon une enquête journalistique de deux médias israéliens".

https://english.elpais.com/technology/2024-04-17/lavender-israels-artificial-intelligence-system-that-decides-who-to-bomb-in-gaza.html

Aucun commentaire:

Enregistrer un commentaire