Français ci-dessousBy Guy Feugap, Africa Organizer of World BEYOND War, December 7, 2025
I was invited by the Philosophy Club of the Government Bilingual High School of Mbalngong in the central region of Cameroon, on the occasion of the World Philosophy Day, to take part in a round table discussion on the theme of philosophy and artificial intelligence (AI). The question of human autonomy in the era of artificial intelligence, which I looked into, was being debated, in the light of the pedagogy and the military (considering the Campaign to Stop Killer Robots that I am conducting). As the Africa organizer of World BEYOND War, a global movement of volunteers who work daily for the end of all wars and the establishment of demilitarized security, I work on mobilizing African chapters for this campaign.
As you know, I am not only a teacher and peace activist, I am also a writer and the issue of artificial intelligence occupies an important part of my writings. Among my literary works, the novel Dimanche le 20 mai 2035 published in 2023, imagines a Cameroon delivered from war and the evils that ruin it, with the help of artificial intelligence being put at the service of robotics.
Let me tell you a little of what happens:
Merveille, Simplice and Erlöser shared a dream: to deliver Cameroon from a rigid and unjust regime. All three knew that the majority of the population, exhausted by daily difficulties, no longer dared to aspire to true well-being. Simplice believed in the gradual awakening of consciences, Erlöser in the possibility of rallying certain actors in the system. But Merveille, marked by her time on death row, no longer believed that speeches were enough. She proposed a rapid but non-violent reversal, made possible by technology. The idea was bold: to use Simplice’s expertise in robotics to create anti-war machines, robots capable of neutralizing violence and unveiling the truth. Erlöser brought his strategic touch: recruiting former people once powerful in the regime but now victims of the system they had served. Their role was crucial in revealing the internal secrets of power. The project took shape when riots broke out at the central market in Yaoundé and the official media disseminated false images. Seeing his father injured, Simplice hacked the national television signal to show the reality. Within days, he took control of television stations and broadcast a message announcing “unusual” events. The state responded with arrests and internet shutdowns. Simplice traveled to finalize the technology in Morocco. When he returned, he introduced a fly-robot equipped with cameras, capable of neutralizing any firearm shot. Invisible, autonomous and fast, the fly stopped the crackling of weapons and fed a Facebook page that predicted each event, gaining the trust of the people. When the flies revealed that the president was no longer really in power, the vacancy was declared. A democratic transition began under the permanent supervision of these tiny agents of truth, making any fraud impossible. The election that followed brought to power a leader under fifty years of age. The country celebrated this historic moment, soon to be dubbed the “Fly Revolution,” a symbol of non-violent liberation where AI was used to protect, enlighten, and restore justice.
My work on AI and militarization, especially through campaigns against autonomous weapons, has taught me a lot about one essential thing: AI is not neutral. It reflects political and ethical choices. And this is why in education as in war, AI is a tutor in the service of its master. AI adapts content, offers individualized pathways, identifies a student’s shortcomings even before he or she perceives them. From a pedagogical point of view, it seems ideal because there is more support, more efficiency and guaranteed success. But the problem is that with so much anticipation, the student’s ability to discover and learn by himself becomes almost nil, because we normally learn by doubting, making mistakes and making efforts to overcome them; which is the very essence of philosophy. Karl Jaspers rightly states that “To do philosophy is to be on the road. In philosophy, questions are more essential than answers”. As much as AI can be useful, it is dangerous by taking away from the student the taste for research and debate.
The military realm reveals even more visibly what is dangerous about delegating AI, with systems and algorithms that identify what they consider to be threats, select targets, and decide even without human control to use force. The same optimization and uncertainty reduction logics are used in targeting systems, autonomous drones, weapons that identify a threat faster and more accurately than humans and process it completely autonomously. We are faced with a double danger, that of war and that of a perfect way of waging war. Beyond the question of morality and ethics about entrusting a machine with the decision to take the life of a human being, there is the simple question of waging war, something absolutely unnecessary. The Campaign to Stop Killer Robots refuses the delegation of the decision to kill to a machine, and World BEYOND War refuses (and says in simpler language) that the human being be killed.
We must choose to use AI in such a way that we have control over what we seek in it, so that we do not ultimately lose our humanity, our responsibility and our freedom. It is up to us to ensure that our society remains human. As Merveille and Simplice did in the story I told, we can put technology at the service of the common good.
La technologie pour la démilitarisation
Guy Feugap, Organisateur Africain de World BEYOND War
J’ai été invité par le Club « Philosophie et civisme » du Lycée Bilingue de Mbalngong dans la région du centre au Cameroun, à l’occasion de la journée mondiale de la Philosophie, pour prendre part à une table ronde sur le thème de la philosophie et l’intelligence artificielle. La question de l’autonomie humaine à l’ère de l’intelligence artificielle sur laquelle je me suis penché, était en débat, à la lumière des domaines pédagogique et militaire (au regard de la campagne contre les robots tueurs que je mène). En tant qu’organisateur pour Afrique de l’organisation World BEYOND War, mouvement mondial de volontaires qui œuvrent au quotidien pour la fin de toutes les guerres et l’instauration d’une sécurité démilitarisée, je mobilise les chapitres africains pour cette campagne.
Vous le savez, je ne suis pas qu’enseignant et activiste de paix, je suis écrivain et la question de l’intelligence artificielle occupe une bonne partie de mes écrits. Parmi mes œuvres littéraires, le roman Dimanche le 20 mai 2035 publié en 2023, pense un Cameroun délivré de la guerre et des maux qui le ruinent, à l’aide d’une intelligence artificielle mise au service de la robotique.
Je vous le raconte brièvement :
Merveille, Simplice et Erlöser partageaient un rêve : délivrer le Cameroun d’un régime figé et injuste. Tous trois savaient que la majorité de la population, épuisée par les difficultés quotidiennes, n’osait plus aspirer à un véritable bien-être. Simplice croyait au réveil progressif des consciences, Erlöser à la possibilité de rallier certains acteurs du système. Mais Merveille, marquée par son passage dans le couloir de la mort, ne croyait plus que les discours suffisaient. Elle proposa un renversement rapide mais non violent, rendu possible grâce à la technologie. L’idée était audacieuse : utiliser l’expertise de Simplice en robotique pour créer non pas des machines de guerre, mais des robots capables de neutraliser la violence et de dévoiler la vérité. Erlöser apporta sa touche stratégique : recruter d’anciens cadres du régime, autrefois puissant mais désormais victime du système qu’ils avaient servi. Leur rôle était crucial pour révéler les secrets internes du pouvoir. Le projet prit forme lorsque des émeutes éclatèrent au marché central de Yaoundé et que les médias officiels diffusèrent de fausses images. En voyant son père blessé, Simplice pirata le signal de la télévision nationale pour montrer la réalité. En quelques jours, il prit le contrôle de chaînes de télévision et diffusa un message annonçant des événements « inhabituels ». L’État répondit par des arrestations et des coupures d’internet. Simplice partit finaliser la technologie au Maroc. À son retour, il introduisit un robot-mouche équipé de caméras capables de neutraliser tout tir d’arme à feu. Invisible, autonome et rapide, la mouche stoppa les crépitements des armes et alimenta une page Facebook qui prédisait chaque événement, gagnant la confiance du peuple. Lorsque les mouches révélèrent que le président n’exerçait plus réellement le pouvoir, la vacance fut déclarée. Une transition démocratique s’ouvrit sous la surveillance permanente de ces minuscules agents de vérité, rendant toute fraude impossible. L’élection qui suivit porta au pouvoir un dirigeant de moins de cinquante ans. Le pays célébra ce moment historique, bientôt surnommé la « Révolution des mouches », symbole d’une libération sans violence où l’IA fut utilisée pour protéger, éclairer et restaurer la justice.
Mon travail sur l’IA et la militarisation, notamment à travers les campagnes contre les armes autonomes, m’a beaucoup appris sur une chose essentielle : l’IA n’est pas neutre. Elle reflète des choix politiques et éthiques. Et c’est pourquoi dans l’éducation comme dans la guerre, l’IA est un tuteur au service de son maître. L’IA adapte les contenus, propose des parcours individualisés, identifie les lacunes d’un élève avant même que lui-même ne les perçoive. Sur le plan pédagogique, cela semble idéal parce qu’il y a plus de soutien, plus d’efficacité et une réussite assurée. Mais le problème c’est qu’avec autant d’anticipation, la capacité de l’élève à se découvrir et apprendre par lui-même devient presque nulle, car on apprend normalement en doutant, en faisant des erreurs et en fournissant des efforts pour les surmonter ; ce qui est l’essence même de la philosophie. Karl Jaspers affirme justement que « Faire de la philosophie, c’est être en route. Les questions, en philosophie, sont plus essentielles que les réponses. » Autant l’IA peut être utile, autant elle est dangereuse en enlevant à l’élève le goût de la recherche et du débat.
Le domaine militaire révèle encore plus visiblement ce qu’il y a de dangereux dans la délégation à l’IA, avec des systèmes et algorithmes qui identifient ce qu’ils considèrent comme des menaces, sélectionnent des cibles et décident même sans contrôle humain d’utiliser de la force. Les mêmes logiques d’optimisation et de réduction d’incertitude sont utilisées dans les systèmes de ciblage, les drones autonomes, les armes qui identifient une menace plus vite et avec plus de précision que l’humain et la traite de façon complètement autonome. On est face à un double danger, celui de la guerre et celui d’une façon parfaite de faire la guerre. Au-delà de la question de morale et d’éthique quant à confier à une machine la décision d’ôter la vie à un être humain, il y a la question simple de faire la guerre, une chose absolument non nécessaire. La Campagne contre les Robots tueurs refuse que l’on délègue la décision de tuer à une machine, et World BEYOND War refuse et dit en langage plus simple, que l’être humain soit tué.
Nous devons choisir d’utiliser l’IA de la façon dont nous avons le contrôle de ce que nous y cherchons, pour ne pas perdre finalement notre humanité, notre responsabilité et notre liberté. C’est à nous qu’il revient de faire en sorte que notre société reste bien humaine. Comme Merveille et Simplice l’ont fait dans l’histoire que j’ai racontée, nous pouvons mettre la technologie au service du bien-être commun.
The post Technology for Demilitarization appeared first on World BEYOND War.
From World BEYOND War via this RSS feed




