Busque en el archivo de publicaciones o dentro de este sitio web
Aspectos éticos del uso de la inteligencia artificial en operaciones militares en el dominio cognitivo
Manuel Esteve Domingo
Academia de las Ciencias y las Artes Militares
Sección de Futuro de las Operaciones Militares
La comunicación sostiene que el uso de la inteligencia artificial en operaciones militares del dominio cognitivo exige salvaguardas éticas reforzadas, porque puede influir de forma rápida, masiva y difícilmente atribuible sobre percepciones, creencias y decisiones humanas. La idea central es que la IA no debe considerarse un mero apoyo técnico, sino una capacidad con efectos potencialmente graves sobre civiles, instituciones y la estabilidad social. Por ello, el autor reclama principios vinculantes de legalidad, responsabilidad, transparencia, trazabilidad, fiabilidad y control humano significativo.
El texto advierte de riesgos como sesgos algorítmicos, errores, falta de explicabilidad, amenazas a la privacidad y, en el caso de la IA generativa, alucinaciones, contenidos falsos y sobreconfianza en resultados automatizados. En el dominio cognitivo, estos riesgos se agravan porque la IA permite segmentar audiencias, personalizar mensajes, automatizar difusión y crear deepfakes o atribuciones engañosas.
Se propone que la IA en este ámbito respete la no manipulación, la no explotación de vulnerabilidades, la minimización del daño y una proporcionalidad «cognitiva» orientada sobre todo a proteger a la población civil. También se subraya que deben existir límites claros frente a desinformación deliberada, microsegmentación con datos sensibles y técnicas de persuasión que anulen la decisión informada.
El texto compara este debate con el de las armas letales autónomas, porque en ambos casos la IA puede alterar decisiones humanas y, en última instancia, producir daños graves. Por eso defiende controles estrictos de supervisión, posibilidad real de aborto de la operación, trazabilidad reforzada y rendición de cuentas efectiva.
En síntesis, el autor concluye que la ética de la IA en el dominio cognitivo debe ser tan exigente como la aplicada a sistemas de alto riesgo, ya que sus efectos pueden producirse no solo en el dominio cognitivo, sino incluso en el resto de dominios, incluidos los físicos.