Il New York Times ha rivelato l’uso sperimentale di sistemi di riconoscimento facciale e droni autonomi nell’ultimo conflitto nella Striscia di Gaza. Queste tecnologie stanno accelerando i tempi decisionali sul campo, ma sollevano gravi interrogativi etici.
Chi è responsabile in caso di errori? Come garantire una revisione umana nelle fasi critiche? Organizzazioni internazionali come l’ONU e la Croce Rossa chiedono un ‘AI in Warfare Treaty’ per stabilire limiti chiari all’uso di armi autonome.
L’articolo del NYT pone l’accento sulla necessità di trasparenza sui criteri utilizzati dagli algoritmi e di controlli rigorosi per evitare conseguenze disastrose sui civili.