Home » Latest News » Business » AI in Warfare: Risks of Errors, Speed & Accountability

AI in Warfare: Risks of Errors, Speed & Accountability

0 comments

The leverage of artificial intelligence in targeting and planning airstrikes raises critical questions about reliability, according to experts. “Ces technologies ne sont pas totalement éprouvées et rien ne dit que les endroits qui sont frappés ne sont pas des endroits où on peut trouver des civils”, précise Christophe Walinski (ULB et GRIP)

Les erreurs viennent d’une donnée qui n’est pas juste ou qui n’est pas complète. Il faut avoir la garantie qu’on a les bonnes informations“, added Contre-amiral Vincent Sébastien, the deputy director of the French agency for defense AI.

Beyond reliability, concerns are growing that AI-driven systems could accelerate the pace of conflict. “Certains conseils fournis par l’IA peuvent précipiter les décisions alors que, parfois, dans une crise, il est vital de réserver des moments de pause”, analyzed Alain De Nève (IRSD). A researcher at ULB echoed this sentiment.

Ces technologies charrient une forme d’imaginaire d’efficacité autour de l’usage de la force. Je pense que cet imaginaire est totalement trompeur. Les guerres récentes sont assez peu décisives et font beaucoup de dégâts humains.

Christophe Walinski

Perhaps the most pressing concern for the future is the issue of accountability for strikes carried out with AI assistance. “Le risque, c’est que le militaire ne se sente pas concerné par le processus, alors qu’il doit exercer toute sa responsabilité dans les décisions, précise le militaire français. L’IA ne dilue en rien la responsabilité du chef militaire.

Une intelligence artificielle ne résonne pas selon des processus cognitifs humains, added Alain De Nève. Cela crée un problème dans la capacité de l’opérateur humain de comprendre sa logique. Cela génère donc des problèmes en termes de responsabilité.”

Experts indicate that currently, AI is not independently making strike decisions. However, some nations are hesitant to regulate the technology. “Certains pays comme la Chine, la Russie ou les Etats-Unis sont très réticents à l’idée de réguler l’intelligence artificielle”, continued M. De Nève.

Concerns are mounting regarding the reliability of artificial intelligence when used for targeting and planning military airstrikes. Experts warn that the technology is not yet fully proven and carries the risk of civilian casualties. “Ces technologies ne sont pas totalement éprouvées et rien ne dit que les endroits qui sont frappés ne sont pas des endroits où on peut trouver des civils”, explained Christophe Walinski (ULB et GRIP).

The potential for errors stems from flawed or incomplete data, requiring absolute certainty in the information used. “Les erreurs viennent d’une donnée qui n’est pas juste ou qui n’est pas complète. Il faut avoir la garantie qu’on a les bonnes informations”, stated Contre-amiral Vincent Sébastien, deputy director of the French agency for defense AI. This highlights the critical require for data integrity in military applications of AI, a factor that could significantly impact defense spending and technology procurement.

Beyond accuracy, experts suggest that AI could inadvertently escalate conflicts by accelerating decision-making. “Certains conseils fournis par l’IA peuvent précipiter les décisions alors que, parfois, dans une crise, il est important de réserver des moments de pause”, noted Alain De Nève (IRSD). A researcher at ULB agreed with this assessment.

Ces technologies charrient une forme d’imaginaire d’efficacité autour de l’usage de la force. Je pense que cet imaginaire est totalement trompeur. Les guerres récentes sont assez peu décisives et font beaucoup de dégâts humains.

Christophe Walinski

A particularly troubling issue is the question of accountability when AI is involved in strike decisions. Military officials risk becoming disengaged from the process, despite retaining ultimate responsibility. “Le risque, c’est que le militaire ne se sente pas concerné par le processus, alors qu’il doit exercer toute sa responsabilité dans les décisions, précise le militaire français. L’IA ne dilue en rien la responsabilité du chef militaire.

The lack of human-like cognitive processes in AI likewise creates challenges in understanding its logic, further complicating accountability. “Une intelligence artificielle ne résonne pas selon des processus cognitifs humains, added Alain De Nève. Cela crée un problème dans la capacité de l’opérateur humain de comprendre sa logique. Cela génère donc des problèmes en termes de responsabilité.”

While AI is not currently authorized to independently authorize strikes, some countries—including China, Russia, and the United States—are reportedly resistant to regulating the technology, according to experts. “Certains pays comme la Chine, la Russie ou les Etats-Unis sont très réticents à l’idée de réguler l’intelligence artificielle”, continued M. De Nève. This reluctance could lead to a global arms race in AI-powered military capabilities, raising further ethical and strategic concerns.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More

Privacy & Cookies Policy