bitacora
ESPACIO PARA PUBLICIDAD
 
 

22.4.24

INVESTIGACIÓN PERIODÍSTICA. ‘Lavender’: la máquina de IA que dirige los bombardeos de Israel en Gaza (I)

imagen

Por Yuval Abraham (*)
El ejército israelí ha marcado a decenas de miles de gazatíes como sospechosos para proceder a su asesinato utilizando un sistema de asignación de objetivos con poca supervisión humana, revelan +972 y Local Call.

En 2021, se publicó en inglés un libro titulado The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World ['El equipo humano-máquina: cómo crear una sinergia entre la inteligencia humana y la artificial que revolucionará nuestro mundo'] cuyo autor firmaba bajo el seudónimo de "Brigadier General Y.S". En él, el escritor -un hombre que, según hemos confirmado, es el actual comandante de la unidad de élite 8200 de la inteligencia israelí- defiende el diseño de una máquina especial que podría procesar rápidamente ingentes cantidades de datos con el fin de generar miles de potenciales "objetivos" para ataques militares en el fragor de una guerra. Dicha tecnología, escribe, resolvería lo que describió como un "atasco humano tanto para localizar nuevos objetivos como para la toma de decisiones que aprueben dichos objetivos".

Resulta que una máquina así existe. Una nueva investigación de +972 Magazine y Local Call revela que el ejército israelí ha desarrollado un programa basado en inteligencia artificial conocido como "Lavender", cuya existencia revelamos en +972 Magazine. Según seis agentes del servicio de inteligencia israelí, que han servido en el ejército durante la actual guerra en la Franja de Gaza y tuvieron una participación directa en el uso de IA con el fin de generar objetivos para asesinar, Lavender ha desempeñado un papel fundamental en el bombardeo sin precedentes de palestinos, especialmente durante las primeras etapas de la guerra. De hecho, según las fuentes, influía hasta tal punto en las operaciones militares que básicamente trataban los resultados de la máquina de IA "como si fuera una decisión humana".

Formalmente, el sistema Lavender está diseñado para marcar como posibles objetivos de bombardeo a todos los sospechosos de pertenecer al brazo armado de Hamás y la Yihad Islámica Palestina, incluidos los de rango inferior. Las fuentes revelaron a +972 y Local Call que, durante las primeras semanas de la guerra, el ejército dependió casi por completo de Lavender, que registró hasta 37.000 palestinos -y sus hogares- como presuntos militantes para posibles ataques aéreos.

Durante las primeras fases de la guerra, el ejército autorizó a los oficiales para que asumieran como buenas las listas de objetivos a matar que generaba Lavender sin necesidad de comprobar a fondo por qué la máquina tomaba esas decisiones o de analizar la información sin procesar en la que se basaban. Una fuente declaró que el personal humano a menudo solo servía de "sello" para aprobar automáticamente las decisiones de la máquina, y añadió que, por lo general, tan solo dedicaban personalmente unos "20 segundos" a cada objetivo antes de autorizar un bombardeo, únicamente para asegurarse de que el objetivo marcado por Lavender era un varón. Y ello a pesar de saber que el sistema comete lo que se consideran "errores" en aproximadamente el 10% de los casos y de que, en ocasiones, marca a personas que apenas tienen una ligera conexión con grupos militantes o ninguna conexión en absoluto.

Además, el ejército israelí atacaba sistemáticamente a las personas marcadas como objetivos cuando se encontraban en sus hogares -generalmente de noche, con toda la familia presente- y no en el transcurso de las actividades militares. Según las fuentes, esto se debía a que, desde el punto de vista de los servicios de inteligencia, era más fácil localizarlas en sus domicilios particulares. Otros sistemas automatizados, incluido uno llamado "¿Dónde está papá?", cuya existencia también revelamos en +972 Magazine, se utilizaban para localizar a personas concretas y llevar a cabo los atentados con bombas cuando entraban en los domicilios de sus familias.

El resultado, como testificaron las fuentes, es que miles de palestinos -la mayoría de ellos mujeres y niños o personas que no participaban en los combates- fueron aniquilados por los ataques aéreos israelíes, especialmente durante las primeras semanas de la guerra, debido a las decisiones del programa de IA.

"No nos interesaba matar a los operativos [de Hamás] solo cuando estaban en un edificio militar o participaban en una operación militar", dijo A., un agente de los servicios de los servicios de inteligencia, a +972 y Local Call. "Por el contrario, las FDI los bombardeaban en sus casas sin dudarlo, como primera opción. Es mucho más fácil bombardear la casa de una familia. El sistema está diseñado para buscarlos en estas situaciones".

Los bomberos intentan extinguir el fuego tras un bombardeo en Gaza. / Mohammed Zannoun

La máquina Lavender se une a otro sistema de IA, "The Gospel" [El Evangelio], sobre el que se reveló información en una investigación previa de +972 y Local Call en noviembre de 2023, así como en las propias publicaciones del ejército israelí. Una diferencia fundamental entre los dos sistemas está en la definición del objetivo: mientras que The Gospel marca los edificios y estructuras desde los que, según el ejército, operan los militantes, Lavender marca a las personas y las pone en una lista negra. 

Además, según las fuentes, cuando se trataba de atacar a supuestos militantes subalternos marcados por Lavender, el ejército prefería utilizar únicamente misiles no guiados, comúnmente conocidos como bombas "tontas" (en contraste con las bombas de precisión "inteligentes"), que pueden destruir edificios enteros con sus ocupantes y causan una cantidad importante de bajas. "No conviene desperdiciar bombas caras en gente sin importancia; es muy caro para el país y hay escasez [de esas bombas]", dijo C., uno de los agentes de los servicios de inteligencia. Otra fuente dijo que habían autorizado personalmente el bombardeo de "cientos" de casas privadas de presuntos militantes subalternos marcados por Lavender, y que en muchos de esos ataques murieron civiles y familias enteras que calificaban de "daños colaterales".

"No conviene desperdiciar bombas caras en gente sin importancia; es muy caro para el país"

En una medida sin precedentes, según dos de las fuentes, durante las primeras semanas de la guerra, el ejército también decidió que por cada militante subalterno de Hamás marcado por Lavender estaba permitido matar hasta 15 o 20 civiles; en el pasado, los militares no autorizaban ningún "daño colateral" durante los asesinatos de militantes de bajo rango. Las fuentes añadieron que, en el caso de que el objetivo fuera un alto cargo de Hamás con rango de comandante de batallón o brigada, el ejército autorizó en varias ocasiones la muerte de más de 100 civiles en el asesinato de un solo comandante.

La siguiente investigación está organizada por orden cronológico de acuerdo a las seis etapas de la enormemente automatizada producción de objetivos por parte del ejército israelí durante las primeras semanas de la guerra de Gaza. En primer lugar, explicamos qué es la máquina Lavender, que marcaba como objetivo a decenas de miles de palestinos utilizando IA. En segundo lugar, desvelamos el funcionamiento del sistema "¿Dónde está papá?", que rastreaba esos objetivos y avisaba al ejército cuando entraban en sus casas familiares. En tercer lugar, describimos cómo se eligieron las bombas "tontas" para atacar estos hogares. 

"Por cada militante subalterno de Hamás marcado por Lavender estaba permitido matar hasta 15 o 20 civiles" 

En cuarto lugar, explicamos cómo el ejército flexibilizó el número permitido de civiles que podían morir durante el bombardeo de un objetivo. En quinto lugar, señalamos el modo en que el software automatizado calculó de manera inexacta la cantidad de no combatientes en cada hogar. Y en sexto lugar, mostramos cómo en varias ocasiones, cuando se atacaba una vivienda, generalmente de noche, el objetivo individual a veces no estaba dentro porque el personal militar no verificaba la información en tiempo real.

PASO 1: GENERACIÓN DE OBJETIVOS

'En cuanto se automatiza, la generación de objetivos se vuelve loca'

En el pasado, en el ejército israelí, el término "objetivo humano" se refería a un agente militar de alto rango que, según las reglas del Departamento de Derecho Internacional del ejército, puede ser asesinado en su domicilio privado incluso si hay civiles cerca. Fuentes de los servicios de inteligencia dijeron a +972 y Local Call que, durante las guerras anteriores de Israel, dado que se trataba de una forma "especialmente brutal" de matar a alguien -en la que a menudo se mataba a una familia entera junto al objetivo-, dichos objetivos humanos se marcaban con mucho cuidado y únicamente se bombardeaba a altos mandos militares en sus hogares con el fin de mantener el principio de proporcionalidad previsto en el derecho internacional.

Pero después del 7 de octubre -cuando militantes liderados por Hamás lanzaron un ataque mortal contra las comunidades del sur de Israel, en el que mataron a unas 1.200 personas y secuestraron a 240-, el ejército, según las fuentes, adoptó un enfoque radicalmente distinto. En el marco de la "Operation Iron Swords" [Operación espadas de hierro], el ejército decidió señalar a todos los agentes del brazo militar de Hamás como objetivos humanos, independientemente de su rango o importancia militar. Y eso lo cambió todo.

El ejército decidió señalar a todos los agentes del brazo militar de Hamás como objetivos humanos, independientemente de su rango o importancia militar

La nueva política también planteó un problema técnico para los servicios de inteligencia israelíes. En guerras anteriores, para autorizar el asesinato de un solo objetivo humano, un oficial tenía que pasar por un complejo y largo proceso de "incriminación": comprobar que la persona era efectivamente un miembro de alto rango del brazo militar de Hamás, averiguar dónde vivía, su información de contacto y, finalmente, saber cuándo estaba en casa en tiempo real. Cuando la lista de objetivos únicamente contaba con unas pocas docenas de altos mandos, el personal de los servicios de inteligencia podía encargarse individualmente del trabajo dedicado a incriminarlos y localizarlos.

Sin embargo, una vez que la lista se amplió e incluyó a decenas de miles de agentes de rango inferior, el ejército israelí pensó que tenía que apoyarse en el software automatizado y la inteligencia artificial. El resultado, testifican las fuentes, fue que el papel del personal humano en la incriminación de palestinos combatientes fue descartado y, en su lugar, la IA hizo la mayor parte del trabajo. Según cuatro de las fuentes que hablaron con +972 y Local Call, Lavender -que fue desarrollado para crear objetivos humanos en la guerra actual- ha marcado a unos 37.000 palestinos como presuntos "militantes de Hamás", la mayoría de ellos subalternos, para asesinarlos (el portavoz de las FDI negó la existencia de dicha lista de objetivos a matar en una declaración enviada a +972 y Local Call).

Una niña palestina y su madre son rescatadas de los escombros en Khan Yunis, al sur de la ciudad de Gaza. / Mohammed Zannoun

"No sabíamos quiénes eran los agentes subalternos porque Israel no les seguía la pista de forma rutinaria [antes de la guerra]", explicó el oficial superior B. a +972 y Local Call para aclarar el motivo para desarrollar esta particular máquina generadora de objetivos para la guerra actual. "Querían permitirnos atacar [a los agentes subalternos] automáticamente. Ese es el Santo Grial. En cuanto se automatiza, la generación de objetivos se vuelve loca".

Las fuentes dijeron que la aprobación para asumir automáticamente las listas negras de Lavender, que anteriormente se habían utilizado solo como herramienta auxiliar, se dio aproximadamente dos semanas después del inicio de la guerra, después de que el personal de los servicios de inteligencia verificara "manualmente" la precisión de una muestra aleatoria de varios cientos de objetivos seleccionados por el sistema de IA. Cuando esa muestra descubrió que los resultados de Lavender habían logrado un 90% de precisión en la identificación de personas que pertenencían a Hamás, el ejército autorizó el uso generalizado del sistema. A partir de ese momento, las fuentes dijeron que si Lavender decidía que un individuo era militante de Hamás, esencialmente se les pedía que lo trataran como una orden, sin necesidad de comprobar de forma independiente por qué la máquina tomaba esa decisión o de examinar la información sin procesar en la que se basaba.

"A las 5 de la mañana, [las fuerzas aéreas] llegaban y bombardeaban todas las casas que habíamos marcado", dijo B. "Eliminamos a miles de personas. No los revisábamos uno a uno: pusimos todo en sistemas automatizados, y en cuanto uno de [los individuos marcados] estaba en casa, inmediatamente se convertía en un objetivo. Lo bombardeábamos a él y a su casa".

"Me sorprendió mucho que nos pidieran que bombardeáramos una casa para matar a un soldado de tierra, cuya importancia en los combates era tan baja", dijo una fuente sobre el uso de IA para marcar a supuestos militantes de rango inferior. "A esos objetivos los apodé 'objetivos basura'. Aún así, me parecía más ético que los objetivos que bombardeamos solo por 'disuasión': rascacielos evacuados y derribados solo para causar destrucción".

Los resultados mortales de esta flexibilización de las restricciones en la primera fase de la guerra fueron asombrosos. Según datos del Ministerio de Salud palestino en Gaza, del que el ejército israelí ha dependido casi exclusivamente desde el comienzo de la guerra, Israel mató a unos 15.000 palestinos -casi la mitad de la cifra de muertos hasta el momento- en las primeras seis semanas de la guerra, hasta que el 24 de noviembre se acordó un alto el fuego de una semana.

"Cuanta más información y variedad, mejor"

El software Lavender analiza la información recopilada sobre la mayoría de los 2,3 millones de residentes de la Franja de Gaza a través de un sistema de vigilancia masiva y, a continuación, evalúa y clasifica la probabilidad de que cada persona en particular pertenezca al brazo armado de Hamás o a la Yihad Islámica Palestina. Según las fuentes, la máquina otorga a casi todas las personas de Gaza una calificación del 1 al 100 para expresar la probabilidad de que sean militantes. 

Lavender analiza la información recopilada sobre la mayoría de los 2,3 millones de residentes de la Franja de Gaza a través de un sistema de vigilancia masiva

Las fuentes explicaron que Lavender aprende a identificar las características de los agentes conocidos de Hamás y la Yihad Islámica Palestina, cuya información fue introducida en la máquina como datos de entrenamiento, y luego localiza esas mismas características -también llamadas "rasgos"- entre la población general. Un individuo que tenga varias características incriminatorias diferentes alcanzará una calificación alta y, por lo tanto, automáticamente, se convertirá en un posible objetivo de asesinato. 

Docenas de palestinos buscan las víctimas enterradas bajo los escombros tras un bombardeo israelí. / Mohammed Zannoun

En The Human-Machine Team, el libro al que se hace referencia al principio de este artículo, el actual comandante de la Unidad 8200 aboga por sistema de este tipo sin referirse a Lavender por su nombre. (Tampoco se nombra al propio comandante, pero cinco fuentes de la 8200 confirmaron que el comandante es el autor, como también informó Haaretz). Al describir al personal humano como un "atasco" que limita la capacidad del ejército durante una operación militar, el comandante se lamenta: "Nosotros [los humanos] no podemos procesar tanta información. No importa a cuántas personas se le haya asignado la tarea de generar objetivos durante la guerra: seguirás sin generar suficientes objetivos al día".

La solución a este problema, afirma, es la inteligencia artificial. El libro ofrece una breve guía para construir una "máquina de objetivos", similar en su descripción a Lavender, basada en IA y algoritmos de aprendizaje automático. En esta guía se incluyen varios ejemplos de los "cientos y miles" de características que pueden aumentar la calificación de un individuo, como estar en un grupo de Whatsapp con un militante conocido, cambiar de móvil cada pocos meses y cambiar de dirección con frecuencia. 

"Cuanta más información y más variada, mejor", escribe el comandante. "Información visual, información del móvil, conexiones en redes sociales, información del campo de batalla, contactos telefónicos, fotografías". Si bien al principio son los humanos quienes seleccionan estas características, continúa el comandante, con el tiempo la máquina llegará a identificar las características por sí sola. Esto, dice, puede permitir a los militares crear "decenas de miles de objetivos", mientras que la decisión real de atacarlos o no seguirá siendo una decisión humana.

El libro no es la única ocasión en que un alto mando israelí insinúa la existencia de máquinas generadoras de objetivos humanos como Lavender. +972 y Local Call obtuvieron imágenes de una conferencia privada que impartió en 2023 el comandante del discreto centro de Ciencia de Datos e Inteligencia Artificial de la Unidad 8200, el "coronel Yoav", en la semana de la IA de la Universidad de Tel Aviv, de la que informaron en su momento los medios de comunicación israelíes.

En la conferencia, el comandante habla de una nueva y sofisticada máquina generadora de objetivos utilizada por el ejército israelí que detecta a "personas peligrosas" basándose en su semejanza con las listas existentes de militantes conocidos sobre las que fue entrenada. "Utilizando el sistema logramos identificar a los comandantes de los escuadrones de misiles de Hamás", dijo el "coronel Yoav" en la conferencia, en referencia a la operación militar israelí de mayo de 2021 en Gaza, cuando la máquina se utilizó por primera vez.

Las diapositivas presentadas en la conferencia, también obtenidas por +972 y Local Call, contienen ilustraciones del funcionamiento de la máquina: se le suministran datos sobre los agentes existentes de Hamás, aprende a fijarse en sus rasgos y luego clasifica a otros palestinos en función de su parecido con los militantes. 

"Clasificamos los resultados y determinamos el límite [a partir del cual atacar a un objetivo]", afirmó el "coronel Yoav" en la conferencia, y subrayó que "al final, las decisiones las toman personas de carne y hueso. En el ámbito de la defensa, éticamente hablando, ponemos mucho énfasis en esto. Estas herramientas están destinadas a ayudar [a los agentes de los servicios de inteligencia] a superar sus barreras". 

Sin embargo, en la práctica, las fuentes que han utilizado Lavender en los últimos meses sostienen que la mediación humana y la precisión fueron sustituidas por la creación masiva de objetivos y la letalidad.

"No había una política de 'cero errores'"

B., un oficial de alto rango que usó Lavender, reiteró a +972 y a Local Call que, en la guerra actual, los oficiales no estaban obligados a revisar de forma independiente las evaluaciones del sistema de IA con el fin de ahorrar tiempo y permitir la producción en masa y sin obstáculos de objetivos humanos. 

"Todo era estadístico, todo estaba ordenado, era muy seco", dijo B. Señaló que esta falta de supervisión estaba permitida a pesar de que los controles internos mostraban que los cálculos de Lavender se consideraban precisos sólo el 90% de las ocasiones; en otras palabras, se sabía de antemano que el 10 % de los objetivos humanos programados para ser asesinados no eran en absoluto miembros del brazo armado de Hamás.

Por ejemplo, las fuentes explicaron que la máquina Lavender a veces marcaba erróneamente a personas que tenían patrones de comunicación similares a los de conocidos agentes de Hamás o de la Yihad Islámica en Palestina, incluido personal de policía y de defensa civil, familiares de militantes, residentes que casualmente tenían un nombre y apodo idénticos al de un agente, y gazatíes que utilizaban un dispositivo que había pertenecido a un agente de Hamás. 

"¿Hasta qué punto tiene que estar una persona cerca de Hamás para que una máquina de los servicios de inteligencia artificial la considere miembro de la organización?", dijo una fuente crítica con la inexactitud de Lavender. "Es una frontera imprecisa. ¿Una persona que no recibe un salario de Hamás, pero les ayuda en todo tipo de cosas, es un agente de Hamás? ¿Alguien que estuvo en Hamás en el pasado, pero que ya no lo está hoy, es un agente de Hamás? Cada una de estas especificaciones -características que una máquina consideraría sospechosas- es inexacta".

 

Gazatíes intentan desenterrar a las víctimas que se encuentran bajo los escombros tras un bombardeo israelí. / Mohammed Zannoun

Existen problemas similares con la capacidad de las máquinas generadoras de objetivos para evaluar el teléfono utilizado por una persona marcada para ser asesinada. "En la guerra, los palestinos cambian de teléfono continuamente", dijo la fuente. "La gente pierde el contacto con sus familias, le da su teléfono a un amigo o a su esposa y tal vez lo pierde. No hay manera de confiar al 100 % en el mecanismo automático que determina a quién pertenece un número [de teléfono]".

Según las fuentes, el ejército sabía que la mínima supervisión humana establecida no descubriría estos fallos. "No existía una política de 'cero errores'. Los errores se trataban estadísticamente", dijo una fuente que utilizó Lavender. "Debido al alcance y la magnitud de la situación, el protocolo era que aunque no se estuviera seguro de que la máquina acertara, se sabía que estadísticamente acertaba. Así que se hacía".

"Ha demostrado su eficacia", afirma B., la fuente principal. "Hay algo en el enfoque estadístico que te fija en una determinada norma y estándar. Ha habido una cantidad ilógica [de bombardeos] en esta operación. No recuerdo nada similar en mi vida. Y confío mucho más en un mecanismo estadístico que en un soldado que ha perdido a un amigo hace dos días. Todos los presentes, incluido yo, perdimos personas el 7 de octubre. La máquina funcionaba con frialdad. Y eso lo hizo más fácil".

Otra fuente de los servicios de inteligencia, que defendió la confianza en las listas de asesinatos de sospechosos palestinos generadas por Lavender, argumentó que solo valía la pena invertir el tiempo de un agente de los servicios de inteligencia para verificar la información si el objetivo era un alto mando de Hamás. "Pero cuando se trata de un militante subalterno, no conviene invertir tiempo ni personal en ello", dijo. "En la guerra, no hay tiempo para incriminar a todos los objetivos. Así que estás dispuesto a asumir el margen de error que supone utilizar inteligencia artificial, arriesgarte a que haya daños colaterales y a que mueran civiles, y a atacar por error y vivir con ello".

B. dijo que la razón de esta automatización era el impulso constante de generar más objetivos para asesinar. "En un día sin objetivos [cuyo índice de calificación fuera suficiente para autorizar un ataque], atacábamos con un criterio más bajo. Nos presionaban constantemente: "Traednos más objetivos". Nos gritaban mucho. Acabábamos con [la vida de] nuestros objetivos muy rápidamente".

"En su punto álgido, el sistema logró generar 37.000 personas como potenciales objetivos humanos"

Explicó que al reducir el criterio de calificación de Lavender, se marcaba a más personas como objetivos de los ataques. "En su punto álgido, el sistema logró generar 37.000 personas como potenciales objetivos humanos", dijo B. "Pero las cifras cambiaban todo el tiempo, porque depende de dónde pongas el listón de lo que es un agente de Hamás. Hubo momentos en que la definición de un agente de Hamás se llevaba a cabo de manera más amplia, y, de este modo, la máquina comenzaba a traernos todo tipo de personal de defensa civil, agentes de policía, con los que sería una lástima desperdiciar bombas. Ayudan al gobierno de Hamás, pero en realidad no ponen en peligro a los soldados".

Una fuente que trabajó con el equipo científico de datos militares que entrenó a Lavender dijo que en la máquina también se introdujeron los datos recopilados de los empleados del Ministerio de Seguridad Interna dirigido por Hamás, a los que no considera militantes,. "Me molestó el hecho de que, cuando se entrenó a Lavender, usaron el término 'agente de Hamás' de manera poco precisa y se incluyera a personas que eran trabajadores de defensa civil en el conjunto de datos de entrenamiento", dijo.

La fuente añadió que, incluso si uno cree que estas personas merecen ser asesinadas, entrenar al sistema en función de sus perfiles de comunicación hizo que hubiera más probabilidades de que Lavender seleccionara civiles por error cuando sus algoritmos se aplicaron a la población general. "Al tratarse de un sistema automático que no es manejado manualmente por humanos, el significado de esta decisión es dramático: significa que se incluyen como objetivos potenciales a muchas personas con un perfil de comunicación civil".

'Solo comprobamos que el objetivo es un varón'

El ejército israelí rechaza rotundamente estas afirmaciones. En una declaración a +972 y Local Call, el portavoz de las FDI negó el uso de los servicios de inteligencia artificial con el fin de incriminar objetivos al decir que se trata simplemente de "herramientas auxiliares que ayudan a los oficiales en el proceso de incriminación". La declaración proseguía: "En cualquier caso, se requiere un examen independiente por parte de un analista [del servicio de los servicios de inteligencia], que verifique la legitimidad de atacar los objetivos identificados de acuerdo con las condiciones establecidas en las directivas de las FDI y el derecho internacional". 

Sin embargo, las fuentes afirmaron que el único protocolo de supervisión humana que se aplicaba antes de bombardear las casas de los presuntos militantes "subalternos" marcados por Lavender consistía en llevar a cabo una única comprobación: garantizar que el objetivo seleccionado por la IA fuera un hombre y no una mujer. En el ejército se partía de la base de que si el objetivo era una mujer, probablemente la máquina había cometido un error porque no hay mujeres entre las filas del brazo militar de Hamás y la Yihad Islámica.

"Un ser humano tenía que hacerlo [verificar el objetivo] en tan solo unos segundos", dijo B., y explicaba que esto se convirtió en el protocolo después de darse cuenta de que el sistema Lavender "acertaba" la mayoría de las veces. "Al principio hacíamos comprobaciones para asegurarnos de que la máquina no se confundía. Pero, en un momento dado, confiamos en el sistema automático y solo comprobamos que [el objetivo] era un hombre, con eso bastaba. No se tarda mucho en saber si alguien tiene voz de hombre o de mujer". 

Para llevar a cabo la comprobación hombre/mujer, B. afirmó que en la guerra actual "en esa fase invertía 20 segundos por cada objetivo y hacía docenas al día. No aportaba nada como humano, aparte de ser un sello de aprobación. Ahorraba mucho tiempo. Si [el agente] aparecía en el mecanismo automatizado y yo comprobaba que era un hombre, habría permiso para bombardearlo, previo examen de los daños colaterales".


Atrás

 

 

 
Imprimir
Atrás

Agrandar texto

Achicar texto

linea separadora
rss RSS