El periodista israelí Yuval Abraham ha escrito un artículo detallado y de múltiples fuentes que detalla cómo las fuerzas israelíes han marcado a decenas de miles de habitantes de Gaza como “sospechosos” de crímenes utilizando un sistema de selección de objetivos de inteligencia artificial.
Alastair Crooke, Al Mayadeen
El derecho internacional se basa en la responsabilidad humana y en la rendición de cuentas en última instancia cuando los humanos matan a otros humanos. La ley con respecto a los combatientes armados es más amplia, pero la responsabilidad personal se aplica igualmente al asesinato de civiles, mujeres y niños.
Pero ¿qué pasa si se afirma que la matanza está dirigida por una "máquina", por una Inteligencia Artificial, basada en una "ciencia" algorítmica?
¿La responsabilidad humana por matar a "otros" de alguna manera queda absuelta por la intención "científica" de las listas de muerte generadas por máquinas de IA, cuando "se vuelven locos"?
Esta es la cuestión que plantea el uso de la IA 'Lavender' por parte de las fuerzas israelíes para proporcionar a Israel listas de muerte en Gaza.