"Lavender" el algoritmo de IA de Israel

Esto decide los objetivos de los bombardeos de Israel en Gaza

Junio 7, 2024 - 10:18
 0  10
"Lavender" el algoritmo de IA de Israel

Una investigación de la revista +972 en colaboración con Local Call revela que el ejército israelí desarrolló un programa basado en inteligencia artificial conocido como "Lavender" que marcó a decenas de miles de habitantes de Gaza como objetivos de asesinato.

Según seis oficiales de inteligencia israelíes, quienes sirvieron en el ejército durante la actual guerra en la Franja de Gaza y estuvieron directamente involucrados en el uso de IA para generar objetivos para el asesinato, Lavender jugó un papel central en los bombardeos sin precedentes en la Franja de Gaza, especialmente en el primer período de la guerra. De hecho, según las fuentes, su influencia en las operaciones militares fue tal que esencialmente trataron los resultados de la máquina de IA " como si fuera una decisión humana ".

Oficialmente, el sistema Lavender está diseñado para marcar a todos los agentes sospechosos de las alas militares de Hamás y la Jihad Islámica Palestina (PIJ), incluidos los de menor rango, como posibles objetivos de bombardeo. Las fuentes dijeron a +972 y al Local Call que en las primeras semanas de la guerra, el ejército dependió casi por completo de Lavender, que marcó a unos 37.000 palestinos como presuntos militantes (y sus hogares) para posibles ataques aéreos.

En las primeras etapas de la guerra, los militares dieron a los oficiales el visto bueno para usar las listas de muerte generadas por Lavender, sin tener que verificar minuciosamente por qué el algoritmo tomó esas decisiones ni examinar los datos de inteligencia en bruto en los que se basaban. Una fuente dijo que el personal humano a menudo servía sólo como "una inicial" para las decisiones de la máquina, añadiendo que normalmente sólo dedicaban personalmente unos "20 segundos" a cada objetivo antes de autorizar un bombardeo - sólo para asegurarse de que el objetivo marcado por Lavender sea un hombre. . Esto fue a pesar del hecho de que se sabía que el sistema cometía "errores" alrededor del 10 por ciento de las veces, y que ocasionalmente marcaba como objetivos legítimos a personas con sólo una vaga conexión con grupos militantes o sin conexión alguna.

Además, el ejército israelí atacó sistemáticamente a las personas objetivo mientras se encontraban en sus hogares (normalmente de noche, mientras toda su familia estaba presente) en lugar de durante la actividad militar. Según las fuentes, esto se debe a que, desde el punto de vista de la inteligencia, es más fácil localizar a las personas en sus hogares. Sistemas automatizados adicionales, incluido uno llamado " ¿Dónde está papá?" ”, se utilizaron específicamente para rastrear a las personas objetivo y llevar a cabo los atentados cuando ingresaban a sus residencias familiares.

El resultado, testificaron las fuentes, es que miles de palestinos, en su mayoría mujeres y niños o personas que no participaron en los combates, murieron por ataques aéreos israelíes, especialmente en las primeras semanas de la guerra, debido a las decisiones de la inteligencia artificial. .

" No estábamos interesados ​​en matar a los agentes [de Hamás] sólo cuando estaban en un edificio militar o participando en actividades militares ", dijo A., un oficial de inteligencia. " Por el contrario, las FDI bombardearon sus casas sin dudarlo como primera opción. Es mucho más fácil bombardear la casa de una familia. El sistema está diseñado para buscarlos en estas situaciones ".

Además, según las fuentes, cuando se trataba de atacar a presuntos militantes de bajo nivel marcados como objetivos por Lavender, los militares preferían utilizar sólo cohetes no guiados, que pueden destruir edificios enteros encima de sus ocupantes y causar bajas importantes. " No conviene desperdiciar bombas caras en personas sin importancia; es muy caro para el país y hay escasez [de este tipo de bombas] ", dijo C., uno de los oficiales de inteligencia. Otra fuente dijo que autorizó personalmente el bombardeo de " cientos " de casas privadas de presuntos agentes de bajo nivel de Hamás marcados por Lavender, muchos de estos ataques mataron a civiles y familias enteras como " daños colaterales ".

En una medida sin precedentes, dijeron dos de las fuentes, los militares decidieron en las primeras semanas de la guerra que por cada operativo de bajo nivel de Hamás marcado por Lavender, se permitiera matar hasta 15 o 20 civiles; En el pasado, los militares nunca autorizaron " daños colaterales " durante los asesinatos de militantes de menor rango. Las fuentes agregaron que si el objetivo era un alto funcionario de Hamás con rango de comandante de batallón o brigada, el ejército había autorizado en varias ocasiones el asesinato de más de 100 civiles en el asesinato de un solo comandante.

Fuente: 972 Mag

¿Cuál es tu reacción?

like

dislike

love

funny

angry

sad

wow