Un drone Gray Eagle MQ-1C de la Fuerza Aérea de Estados UnidosEl Pentágono está adoptando nuevos principios éticos mientras se prepara a acelerar el uso de inteligencia artificial en el campo de batallaLas nuevas directrices delineadas el lunes establecen que “se deben ejercer niveles apropiados de juicio y cuidado” al desarrollar o utilizar sistemas de inteligencia artificial, como aquellos que pueden escanear imágenes aéreas en busca de objetivos.También indicaron que las decisiones tomadas por sistemas automatizados deben ser “rastreables” y “gobernables”, lo que significa que “debe existir la forma de desconectarlas o desactivarlas” en caso de que demuestren un comportamiento no deseado”, dijo el teniente general de la Fuerza Aérea Jack Shanahan, director del Centro Conjunto de Inteligencia Artificial del Pentágono.El intento del Pentágono de acelerar sus capacidades de Inteligencia Artificial ha generado una disputa entre las compañías tecnológicas en torno a un contrato de cómputo en la nube valuado en 10.000 millones de dólares conocida como Iniciativa Conjunta de Infraestructura de Defensa (JEDI por sus iniciales en inglés). Microsoft ganó la licitación en octubre pasado, pero no ha podido iniciar el proyecto de 10 años debido a que Amazon demandó al Pentágono con el argumento de que la antipatía del presidente Donald Trump hacia la compañía y su director general Jeff Bezos perjudicaron las oportunidades de la empresa de obtener el contrato.Una directriz militar de 2012 que continúa vigente requiere que los humanos estén en control de las armas automatizadas, pero no toca otros aspectos de la inteligencia artificial. Los nuevos principios de Estados Unidos tienen el objetivo de establecer lineamientos para sus aplicaciones bélicas y no bélicas, desde recabar inteligencia y operaciones de espionaje, hasta predecir problemas de mantenimiento en aeronaves y embarcaciones.El hombre detrás de la máquina, por ahora. Un piloto de drone operando un MQ-1 Predator en 2010 (Fuerza Aérea Estados Unidos)
Las medidas se apegan a las recomendaciones presentadas el año pasado por la Junta de Innovación de Defensa, un grupo encabezado por el ex director general de Google, Eric Schmidt.Aunque el Pentágono reconoció que la inteligencia artificial “genera nuevas ambigüedades y riesgos éticos”, los nuevos principios no cumplen con las restricciones más rigurosas que piden los activistas por el control de armas.“Me preocupa que estos principios sean un proyecto antiético”, dijo Lucy Suchman, un antropólogo que estudia el papel de la inteligencia artificial en tiempos de guerra. “La palabra ‘adecuado’ se presta a muchas interpretaciones”.Shanahan dijo que los principios fueron laxos de manera intencional para evitar que el ejército estadounidense quede atado a restricciones específicas que puedan volverse obsoletas”, comentó.“La tecnología se adapta. La tecnología evoluciona”, declaró.(Con información de AP)MÁS SOBRE ESTE TEMA:Inteligencia Artificial y Defensa: los desafíos éticos planteados por los robots asesinosCómo se usa la inteligencia artificial para rastrear los casos de coronavirusTwitter contra los deep fakes: la red social etiquetará los videos falsosCada vez más cerca del reemplazo de guionistas con robots y de los actores con imágenes computarizadas: ¿Qué pasará con Hollywood?