La Cruz Roja expresó su preocupación por el uso de IA en las guerras

Publicado el
La Cruz Roja expresó su preocupación por el uso de IA en las guerras

El uso de IA en las guerras puede causar que los objetivos se confundan sin que exista ningún responsable. / Robotitus/Playground

Un nuevo informe encargado por el Comité Internacional de la Cruz Roja (CICR) plantea serias preocupaciones sobre el uso de sistemas de inteligencia artificial en el ámbito militar.

El estudio, elaborado por el investigador Arthur Holland Michel, advierte sobre los riesgos de “errores incontrolables” introducidos por las incertidumbres, suposiciones ocultas y sesgos inherentes en los sistemas de IA y computacionales actuales.

 

«Errónea y peligrosa»

Michel menciona que la percepción actual sobre la IA militar se basa en la creencia de que estos sistemas son o correctos o incorrectos. Sin embargo, señala que esta narrativa es errónea y peligrosa, ya que promueve una confianza excesiva en herramientas de IA que se despliegan cada vez más en el campo de batalla, exacerbando la dificultad de diferenciar entre buenos y malos consejos proporcionados por la IA.

Un ejemplo alarmante, según Michel, es la posibilidad de que un sistema de IA pueda confundir una ambulancia con un tanque, llevando a un militar a disparar un misil contra ese vehículo. En estos casos, actualmente se permite que el humano transfiera la culpa al sistema de IA, una práctica que Michel considera inaceptable. 

La introducción de una interfaz computarizada entre el ser humano y el objetivo crea una «zona gris» donde pueden ocurrir errores sin que nadie sea realmente responsable.

La relevancia de este tema es especialmente significativa en el contexto de los recientes informes de la revista 972 Magazine sobre el uso de los programas Lavender y Gospel por parte del ejército israelí en Gaza

Estos programas utilizan IA para seleccionar objetivos en áreas densamente pobladas y con alta presencia civil, lo que, según el reporte, ha tenido consecuencias desastrosas.

 

Uso responsable

Michel espera que los hallazgos del informe promuevan una mayor comprensión de las complejidades que rodean el uso de la IA en contextos militares

«Estas son preguntas incómodas sobre la optimización de cualquier tipo de decisión en la guerra,» afirma Michel. «Simplemente no sabemos lo suficiente sobre los sistemas actuales, y por eso el discurso sobre el uso de la IA en Gaza está tambaleándose.»

Este informe de la Cruz Roja llama a una reflexión y a un escrutinio más riguroso del uso de la inteligencia artificial en conflictos armados. Los humanos debemos tener responsabilidad y precaución en la adopción de estas tecnologías.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *