Kolonel der Huzaren Hans van Dalen en Chat GPT
Artificial Intelligence als stafofficier in een militair hoofdkwartier

De opkomst van kunstmatige intelligentie (Artificial Intelligence – AI) brengt revolutionaire veranderingen teweeg in tal van sectoren. De militaire wereld vormt hierop geen uitzondering. Eén van de meest veelbelovende toepassingen van AI in Defensie is het vervangen van menselijke stafofficieren in militaire hoofdkwartieren. Deze ontwikkeling biedt zowel kansen als uitdagingen en vereist een grondige analyse van de voordelen, beperkingen en de noodzakelijke randvoorwaarden. Samen met Chat GPT doet ik een poging hiertoe.
Al was het maar om een discussie te beginnen en het gebruik van AI binnen het militaire domein te stimuleren. Ik begin met een uitleg over AI en de rol van stafofficieren. Vervolgens ga ik in op de voordelen, de nadelen en bespreek ik de (voor)oordelen. Ik – en ChatGTP – eindigen met een conclusie.
Kunstmatige intelligentie (AI)
AI, oftewel kunstmatige intelligentie, is een tak van de computerwetenschap die zich richt op het ontwikkelen van systemen en programma’s die menselijke intelligentie nabootsen. AI is een verzameling van verschillende technologieën die samenwerken om taken uit te voeren die traditioneel menselijke intelligentie of in sommige gevallen menselijk handelen vereisen.[1] Het doel van AI is dan ook om computers en machines in staat te stellen taken uit te voeren waarvoor normaal gesproken menselijk denken, leren of beslissen nodig is. Twee van die technologieën zijn computer vision model (die in staat is om afbeeldingen, objecten en gezichten te herkennen) en large language model (LLM) (die menselijke taal begrijpt en genereert).[2]AI werkt door middel van complexe algoritmen die data verwerken en inzichten genereren. Een veelgebruikte techniek is ‘machine learning’, waarbij systemen leren van data zonder expliciete programmering. Een geavanceerdere vorm hiervan is ‘deep learning’, dat gebruikmaakt van neurale netwerken geïnspireerd door het menselijk brein. AI kan dus niet alleen informatie ordenen en adviezen geven, maar ook zelf informatie verzamelen, begrijpen wat er gebeurt en zelfs daarop reageren. AI is dus een soort ‘super assistent’ geworden. Het is belangrijk om te beseffen dat AI grote (enorme) hoeveelheden data nodig heeft om patronen te herkennen (LLM). AI gebruikt daarnaast algoritmen. Dit zijn rekenkundige stappen om de data te verwerken. Hoewel AI eindeloze mogelijkheden biedt in verschillende sectoren, van gezondheidszorg tot defensie, roept het ook ethische vragen op over privacy, veiligheid en verantwoordelijkheid.

Verschillende soorten AI
Er zijn verschillende soorten AI. Narrow AI (Specifieke AI) is een vorm van AI die is ontworpen voor één specifieke taak, zoals gezichtsherkenning of het beoordelen van een situatie. Het grootste deel van de AI die we vandaag gebruiken, valt in deze categorie. General AI (Algemene AI)[3] kan, net als mensen, meerdere soorten intellectuele taken uitvoeren. Het kan leren van ervaringen en informatie overbrengen naar verschillende domeinen. Deze technologie is nog in ontwikkeling maar al wel zeer ver gevorderd. Er bestaat ook Super AI.[4] Dit is een theoretische vorm van AI die menselijke intelligentie niet alleen evenaart, maar zelfs overtreft. Een AI die zichzelf exponentieel blijft verbeteren en intelligenter wordt. Zodra deze Super AI is uitgevonden, lijkt de mensheid achterhaalt.[5] Dit blijft (gelukkig) vooralsnog sciencefiction.
AI heeft een aantal handige kenmerken die ook in het militaire domein kunnen worden toegepast. De eerste is het al genoemde ‘leren’ (machine learning). AI-systemen kunnen gegevens analyseren en daaruit patronen herkennen. Dit stelt ze in staat om te leren van ervaringen zonder dat ze expliciet worden geprogrammeerd. Een voorbeeld is een AI-systeem dat zichzelf verbetert in materieelherkenning door steeds meer beelden van vijandelijke materiaal te analyseren. Een tweede kenmerk is ‘natuurlijke taalverwerking’ (NLP). AI kan menselijke taal begrijpen en genereren. Zowel in schrift als in spraak. Denk aan virtuele assistenten zoals Chat GPT, CoPilot (schrift) of Siri, Alexa, Google Assistant (spraak). Er zijn er inmiddels al honderden. AI kan als derde kenmerk ook ‘redeneren’. AI kan logische beslissingen nemen op basis van beschikbare informatie. Dit wordt vaak toegepast in systemen zoals chatbots of navigatiesoftware. Een AI-systeem kan als vierde kernmerk ‘problemen oplossen’. Ze kan complexe problemen oplossen door meerdere voorstellen te doen, alternatieve oplossingen te analyseren en de beste optie te kiezen, bijvoorbeeld in operatiën, inlichtingen, militaire logistiek of militaire gezondheidszorg. Als laatste belangrijke kenmerk kan AI ook ‘interpreteren’ en hierop handelen. Met behulp van sensoren, camera’s en andere apparaten kan AI visuele en auditieve gegevens waarnemen, bijvoorbeeld in zelfrijdende auto’s die verkeerssituaties interpreteren of in zelfsturende vliegende, rijdende, lopende, kruipende of varende militaire drones of robots. Het is ook belangrijk om te beseffen dat je met AI-chatbots een dialoog kunt voeren in schrift of spraak. Je kunt dus nadere aanwijzingen geven. Door middel van schriftelijke ‘prompts’ of duidelijk gearticuleerde vragen en aanwijzingen kan AI het gewenste antwoord(en) of doel steeds beter vormgeven. Je kunt AI dus ‘finetunen’. Dit heet ‘Reinforcement Learning from Human Feedback’ (RLHF) en is op dit moment de meest succesvolle form van AI.

AI in het militaire domein
AI speelt nu al een grote rol in het militaire domein. Geavanceerde algoritmen kunnen enorme hoeveelheden data analyseren, waaronder satellietbeelden, communicatie-intercepties en sociale media, om potentiële dreigingen te identificeren en te analyseren. Deze systemen kunnen patronen en anomalieën detecteren die voor menselijke analisten moeilijk waarneembaar zijn. Autonome drones en voertuigen zijn één van de meest zichtbare toepassingen van AI in het leger. Deze systemen kunnen worden ingezet voor verkenning, bewaking en zelfs aanvallen zonder directe menselijke tussenkomst. Ze bieden een aanzienlijk voordeel door het verminderen van het risico voor menselijke soldaten en het verhogen van de operationele efficiëntie. In het domein van de cyberoorlogvoering speelt AI een essentiële rol bij zowel offensieve als defensieve operaties. AI-gebaseerde systemen kunnen netwerkverdediging automatiseren, bedreigingen in real-time detecteren en daarop reageren. Aanvallende capaciteiten omvatten het gebruik van AI om zwakke punten in vijandelijke netwerken te identificeren en te exploiteren.
Militaire stafofficieren
Stafofficieren in een militair hoofdkwartier spelen een cruciale rol in het plannen, coördineren en uitvoeren van militaire operaties. Ze analyseren complexe informatie, doen voorstellen voor het maken tactische, operationele of zelfs strategische beslissingen en zetten besluiten om naar taken voor lagere eenheden en communiceren deze vervolgens. Dit zijn echter taken die vrijwel zonder uitzondering door AI overgenomen kunnen worden. We verdelen de militaire staftaken in drie hoofdgroepen en bespreken deze vervolgens.
De eerste groep staftaken is gegevens analyse. Dit betekent in de praktijk het verzamelen, ordenen en analyseren van grote hoeveelheden data, informatie en inlichtingen en andere vormen van operationele gegevens over eigen troepen, weer, vijand, bevolking, etc. Dit zijn juist het soort taken waarvoor AI ontworpen is. AI is namelijk ontworpen en getraind om met grote hoeveelheden en grote verscheidenheid aan data om te gaan. Wel dient deze data betrouwbaar te zijn. Onbetrouwbare data kan AI immers op een verkeerd spoor zetten.
De tweede groep staftaken is militaire planning. Dit kan tactische, operationele of strategische planning zijn in de vorm van actieplannen of scenario’s. Dit is niet alleen planning voor (de inzet van) gevechtseenheden maar ook voor gevechtsondersteunende of gevechtslogistieke eenheden. Hiertoe worden over het algemeen door stafofficieren ontplooiings- en inzetscenario’s ontwikkeld. Dit heet in militaire vaktaal: courses of action (COA’s). Ook dit zijn taken die AI uitstekend kan uitvoeren. Gebruik makend van ervaringen uit het verleden kunnen in luttele seconden COA’s opgesteld worden, deze onderling vergeleken en keuzevoorstellen gedaan worden.
De derde en laatste groep staftaken is ‘coördinatie en communicatie in de vorm van operatieorders (OPO’s), stafbijlages (Annexen), deelorders (FRAGO’s) of mondelinge militaire bevelen. Ook dit zijn relatief eenvoudige taken die AI kan uitvoeren, net zoals het (in mijn geval) een voorstel voor artikel schreef over vervanging van stafofficieren door AI. Ik hoefde het alleen nog maar te bewerken als vorm van RLHF.

Voordelen
De ‘superassistent AI’ kan ingezet worden als stafofficier. Dit biedt grote voordelen voor militaire hoofdkwartieren. Snelheid en efficiëntie: AI kan enorme hoeveelheden data in real-time verwerken en analyseren, wat sneller is dan menselijke capaciteit. Dit is essentieel in situaties waar snelheid van beslissen levens kan redden, zoals in het militaire domein. Met AI kunnen militaire hoofdkwartieren sneller reageren dan de tegenstander, hem digitaal uit manoeuvreren en het initiatief behouden. Datahoeveelheid: AI kan enorme hoeveelheden data aan. Zowel historische data als actuele data. Het menselijke brein is relatief beperkt in dit opzicht. Zeker als vermoeidheid toeslaat, gaat het cognitief (verwerkings) vermogen snel achteruit met alle gevaren van dien. Objectiviteit: Waar menselijke beslissingen vatbaar zijn voor emoties en cognitieve bias (mensen kunnen bevooroordeeld zijn als ze getraind worden op datasets of externe factoren die een negatieve invloed hebben op de uitkomsten van een onderzoek of meting), kan AI objectieve en data-gedreven beslissingen nemen. AI kent geen woede, kent geen verdriet, kent geen wraak, kent geen trots, kent geen wreedheid. De geschiedenis leert dat deze menselijke aspecten een belemmerende rol spelen in het militaire domein en soms tot foute beslissingen hebben geleid met desastreuze uitkomsten. Kostenbesparing: Het verminderen van menselijke aanwezigheid kan leiden tot lagere personeelskosten en minder logistieke ondersteuning. Dit betekent kleinere militaire staven die minder kwetsbaar zijn voor vijandelijke opsporing, identificatie en fysieke tegenmaatregelen. Ze kunnen hierdoor ook gemakkelijker beweegbaar worden gemaakt, zodat de mobiliteit van militaire hoofdkwartieren significant verbetert. Bovendien kunnen we sneller militaire staven bouwen als er noodzaak bestaat om het leger te vergroten (iets wat nu bij het Oekraïense leger het geval is). Continuïteit: AI-systemen werken 24/7 zonder vermoeidheid, wat langdurige consistentie in operaties garandeert. De AI-assistent wordt bovendien nooit ziek, kent geen emoties, werkt snel en kent het militaire bedrijf door en door. Bovendien heeft zij geen ‘thuisfront’ of collega’s die haar aandacht afleiden.
Nadelen
AI biedt veel voordelen, maar er zijn ook nadelen en risico’s waar rekening mee moet worden gehouden. Het gebruik van AI kent ethische en maatschappelijke implicaties, zoals bias (AI-systemen kunnen bevooroordeeld zijn als ze getraind worden op datasets of externe factoren die een negatieve invloed hebben op de uitkomsten van een onderzoek), privacy-inbreuk (AI kan grote hoeveelheden persoonlijke gegevens analyseren of volgen) en verlies aan werkgelegenheid genereren (bijvoorbeeld het verdwijnen van de functie van stafofficier). Een ander nadeel van AI is de beperking van menselijke controle. Veel AI-modellen, zoals deep learning, zijn moeilijk te doorgronden (black box probleem), waardoor het voor veel mensen (militairen) lastig is om te begrijpen hoe ze tot bepaalde beslissingen komen. Daarnaast kan een te grote afhankelijkheid van AI leiden tot een verlies van menselijke militaire vaardigheden en controle. Deze militaire vaardigheden hebben we bij uitval van AI vermoedelijk hard nodig.[6]
Een ander belangrijk punt is de verantwoordelijkheid en aansprakelijkheid bij het gebruik van AI-systemen. Wanneer een AI-systeem een fout maakt of een onbedoelde actie uitvoert, rijst de vraag wie hiervoor verantwoordelijk gehouden moet worden: de ontwikkelaar, de militaire operator of de commandant die het systeem heeft ingezet. Ook kent AI ethische en fysieke risico’s op het gebied van veiligheid en beveiliging. AI kan worden ingezet voor schadelijke doeleinden, zoals geavanceerde cyberaanvallen of phishing. AI kan worden gebruikt in autonome wapensystemen, wat ethische en veiligheidsvragen oproept. Onjuiste implementatie of kwaadaardig gebruik van AI kan leiden tot ernstige gevolgen, zoals militaire fouten, fysieke schade, verkeerde medische diagnoses of financiële schade. Als laatste zit er ook een economische en ecologische impact aan het gebruik van AI. Het ontwikkelen en onderhouden van AI-systemen kan duur zijn, wat militaire organisaties met minder financiële armslag op achterstand zet. Het trainen van AI-modellen, vooral grote zoals GPT, verbruikt aanzienlijke hoeveelheden energie, wat militair gezien nadelig is en ook kan bijdragen aan (lokale) milieuproblemen.

Vooroordelen
AI wordt vaak tegemoet getreden met vooroordelen. Een belangrijk vooroordeel is dat AI alleen maar autonome besluitvorming kent. AI kent (nog) geen empathie. Ze kan geen menselijke emoties of context volledig begrijpen, wat kan leiden tot onethische of ongevoelige beslissingen. Een AI-systeem kan ook beslissingen nemen die niet overeenkomen met menselijke waarden of intenties. Menselijke interactie door middel van discussies is nodig om zeker te stellen dat AI ‘niet de bocht uitgiert’. Dit wordt ook het wel het ‘alignment problem’ genoemd. Hoe houden we intelligente computersystemen in lijn met menselijke waarden en normen.[7] De vraag is natuurlijk om dit werkelijk zo is. De menselijke discussies worden immers ook gevoerd op basis van menselijke emoties, eigen vooroordelen en eigen ervaring die ook beperkingen met zich meebrengen. Discussies kosten tijd en worden niet altijd professioneel gevoerd, zeker niet als vermoeidheid toeslaat en negatieve ervaringen en rol spelen. AI kent deze problemen niet, is razendsnel en blijft rationeel voorstellen voor besluitvorming doen. Overigens wordt er op dit gebied wel redelijk succesvol geëxperimenteerd met het aanbrengen van menselijk waarden, normen en emoties bij AI.
Een tweede vooroordeel is dat AI beperkte flexibiliteit en creativiteit kent. AI kan moeite hebben met onvoorspelbare situaties die creatief denken vereisen. Maar dit geldt ook voor de (overgrote) meerderheid van de militairen. Ook mensen zijn geneigd (zelfs genetisch voorgeprogrammeerd) gebruik te maken van hun ervaringen om onvoorspelbare situaties tegemoet te treden. Slechts een zeer klein aantal van ons bezit de gave om nieuwe situatie met creativiteit tegemoet te treden. De gemiddelde stafofficier bezit die creativiteit niet. En als een stafofficier creativiteit bezit is AI vele malen sneller en verzint (veel) meer creatieve oplossingen dan een mens.[8]
Een derde vooroordeel is dat AI’s kunnen hallucineren. Dit is haar beruchte vermogen om dingen te verzinnen of te fantaseren. Ze is immers getraind om haar vragensteller tevreden te stellen en doet dat door verbanden te leggen die ze uit haar trainingsdata haalt. Het kan haar niet schelen of deze dingen waar, betekenisvol of niet waar zijn. Dit hallucineren stelt AI echter wel in staat om nieuwe verbanden te leggen buiten de exacte context van haar trainingsdata, waardoor ze dus taken kan verrichten waarvoor ze niet expliciet is getraind.[9] Een logistiek AI-systeem kan dus geneeskundige- of genie-vraagstukken oplossen. Dit geeft redundantie waardoor uitval van AI-systemen onderling kan worden opgevangen. Erg handig bij militaire operaties.
Een vierde vooroordeel is het gebrek aan regelgeving en toezicht. De snelle ontwikkeling van AI overtreft vaak de wetgeving, wat leidt tot onzekerheid over hoe AI op een veilige en ethische manier moet worden ingezet. Dit geldt ook voor het militaire domein. De vraag is alleen of we ons kunnen veroorloven om te wachten op regelgeving en toezicht omdat de tegenstander AI al in ruime mate inzet. De gebeurtenissen in de Oekraïne en het Midden-Oosten laten dit overduidelijk zien. Hoewel grote technologiebedrijven de AI-markt nog domineren, wat de concurrentie vermindert en innovaties kan beperken. Dit lijkt in de praktijk mee te vallen. Er is intussen sprake van een aanzienlijk aantal ‘start-ups’ (ook in Nederland) die met enige mate van succes nieuwe en geavanceerde vormen van AI aanbieden. Dit neemt niet weg dat regulering, transparantie en ethische ontwikkeling op termijn van cruciaal zijn om onze menselijkheid niet aan AI over te geven.
AI in militaire hoofdkwartieren
Om AI succesvol te integreren in een militair hoofdkwartier, zijn geavanceerde concepten en technologieën nodig. Ten eerste is er machine learning en deep learning nodig voor het trainen van AI-systemen om patronen te herkennen en te leren van historische gegevens. Dit lijkt een eenvoudig stap, maar is het niet omdat er goed nagedacht moet worden welke data we als LLM beschikbaar stellen. De hoeveelheid en verscheidenheid is hierbij niet het issue, maar wel de betrouwbaarheid en ethische norm. Daarnaast hebben we geavanceerde sensoren en netwerken nodig om (live)data van het slagveld snel en accuraat door te sturen naar het hoofdkwartier om gebruikt te kunnen worden in de LLM. Deze data moet zonder al te veel bewerking in de LLM opgenomen kunnen worden. Vanzelfsprekend lijkt verder een veilige infrastructuur want cyberbeveiliging is van cruciaal belang om AI-systemen te beschermen tegen vijandelijke inmenging. Een vijand kan immers onze LLM beschadigen of vervuilen, data manipuleren zodat de AI verkeerde voorstellen doet of beslissingen over inzet wapensystemen neemt. We hebben dus ook een AI-systeem nodig die echte data kan herkennen van door de tegenstander gemanipuleerde data. Een AI-systeem kan zelf echter ook door de vijand veranderd worden, bijvoorbeeld door aanpassing van de algoritmen. Een gehackt AI-systeem kan catastrofale gevolgen hebben. Als laatste moeten we ook nadenken over de Human-AI integratie. We hebben interfaces die samenwerking tussen AI en menselijke commandanten (beslissers) mogelijk maken.

Beseft moet worden dat gebruik van AI in militaire hoofdkwartieren opleidingen en training van stafofficieren en militaire staven mogelijk overbodig maakt of tenminste aanzienlijk verkort. Er is immers geen noodzaak meer om individuen te leren of ervaring bij te brengen door middel van lessen of scenario’s, want die kennis en ervaring bezit AI al door zijn gebruik van LLM.[10] Beter nog: in plaats van beperkte (veelal) westerse militaire training en ervaring maakt AI gebruik van alle militaire ervaring op de wereld. Zij kan bovendien rekening houden met culturele verschillen of deze zelfs benutten.
Er blijft echter toezicht nodig. Toezicht voor interactie met de AI-assistent (door middel van RLHF) en toezicht om de diverse AI-middelen gecoördineerd te gebruiken. De chef-staf van een militair hoofdkwartier verandert hierdoor in een ‘manager van AI-middelen.’
Uitdagingen
Het vervangen van stafofficieren kan (zal) op weerstand stuiten binnen militaire organisaties. Militairen zijn immers ‘beschermers’ van de bestaande orde en van nature minder geneigd tot het aangaan van intellectuele uitdagingen die de bestaande orde betwisten. Dit neemt toe naarmate de rang hoger wordt. Carrière maken in een bepaald systeem vermindert de neiging om hetzelfde systeem ter discussie te stellen. Om AI effectief in te zetten, is een multidimensionale aanpak noodzakelijk. Dit kan met een testfase, waarin gestart wordt met het gebruik van AI als ondersteuning voor menselijke stafofficieren, zodat ze beslissingen kunnen valideren. Een soort co-intelligentie dus. Daarnaast is er training nodig, waarin gezorgd wordt voor training van militair personeel in het begrijpen en beheren van AI-systemen. Verder moet er parallel gewerkt worden aan regelgeving, waarmee duidelijke kaders en protocollen ontwikkeld worden voor het gebruik van AI in militaire contexten.[11] Als laatste moet er samenwerking komen met technologie leveranciers, onderzoeksinstituten (TNO en academische instellingen (NLDA) om AI-systemen te ontwikkelen die voldoen aan militaire eisen.
Afsluiting
De introductie van AI in militaire hoofdkwartieren en militaire operaties heeft strategische implicaties. Het biedt landen met geavanceerde technologieën een aanzienlijk voordeel, wat kan leiden tot een nieuwe wapenwedloop. Daarnaast verandert het de aard van oorlogsvoering, waarbij snelheid en informatie-overwicht cruciale factoren worden. Ik laat ChatGPT het slotpleidooi houden en verzocht hem een slotwoord te schrijven:
AI heeft het potentieel om de rol van militaire stafofficieren fundamenteel te transformeren. Door complexe data-analyse, verbeterde besluitvorming en het automatiseren van routinetaken brengt AI niet alleen efficiëntie, maar ook een strategisch voordeel. Toch blijft een kritische balans essentieel: menselijke expertise en ethische overwegingen moeten het gebruik van AI blijven sturen. De toekomst biedt ongekende mogelijkheden voor integratie van AI in militaire operaties. Hoofdkwartieren die deze technologie op een doordachte en verantwoordelijke manier omarmen, staan sterker in een steeds complexer geopolitiek landschap. Maar AI is geen eindpunt; het is een gereedschap dat voortdurend evolueert. Het succes ervan hangt af van hoe we haar potentieel benutten terwijl we alert blijven op de uitdagingen die het met zich meebrengt. De toekomst van oorlogsvoering wordt niet alleen bepaald door de kracht van wapens, maar ook door de intelligentie van de systemen die deze wapens aansturen.
Blijft natuurlijk de vraag over of AI ook generaals kan vervangen? De vraag stelde ik eenvoudig aan ChatGPT. Ter geruststelling van de ambitieuze lezer, kreeg ik het volgende antwoord: Hoewel AI aanzienlijk kan bijdragen aan militaire operaties en ondersteuning kan bieden aan generaals, is het momenteel niet in staat om een generaal volledig te vervangen. De unieke combinatie van ervaring, intuïtie, ethiek, en strategisch inzicht die menselijke generaals bezitten, blijft essentieel voor effectieve militaire leiderschap. AI kan echter een waardevolle aanvulling zijn, waardoor generaals beter geïnformeerde en efficiëntere beslissingen kunnen nemen.
Naschrift: Dit artikel is in anderhalf uur tijd geschreven met gebruik van ChatGPT

Bronnen en verwijzingen:
[1] Job van den Berg & Remy Gieling, Handboek van AI Strategie, AI Group BV, 2024, blz 28.
[2] Om AI te leren hoe ze menselijke tekst moet begrijpen en produceren, wordt ze getraind met een enorm hoeveelheid data uit allerlei bronnen, zoals websites, boeken en andere digitale documenten. Dit wordt pretraining genoemd, wat tegenwoordig niet meer supervised gebeurt. Job van den Berg & Remy Gieling, Handboek van AI Strategie, AI Group BV, 2024, blz 27 en 28.
[3] Soms ook AGI genoemd: Artificial General Intelligence. Ethan Mollick, Slimmer werken met AI, POM Press, 2024, blz 42
[4] Soms ook ASI genoemd: Artificial Super Intelligence. Ethan Mollick, Slimmer werken met AI, POM Press, 2024, blz 42.
[5] Een term die hierbij wordt gebruikt is ‘singulariteit.’ Een wiskundige term die een punt in wiskundige berekeningen aanduidt waarop een waarde niet langer meetbaar is. De wiskundige John von Neumann gebruikte deze term in jaren ’50 al om de onbekende toekomst te beschrijven waarna het ‘menselijk leven zoals wij dat kennen’ niet kon voortduren.
[6] Een voorbeeld hiervan uit het militaire domein zijn is de hedendaagse moeite die jonge militairen hebben bij het ‘kaartlezen.’ Ze kennen immers alleen nog maar digitale navigatie en zijn nauwelijks meer in staat een militaire stafkaart te interpreteren.
[7] Job van den Berg & Remy Gieling, Handboek van AI Strategie, AI Group BV, 2024, blz 40.
[8] Ethan Mollick, Slimmer werken met AI, POM Press, 2024, blz 101.
[9] Ethan Mollick, Slimmer werken met AI, POM Press, 2024, blz 96-100.
[10] Als er desondanks toch noodzaak bestaat voor opleiding of training kan AI ingezet worden als privé-docent, personal trainer of coach, waardoor op het individu afgestemde opleidingsmethodes ontstaan.
[11] Hoewel we moeten beseffen dat AI met ingebouwde moraal altijd omzeild kan worden door kwaadwillende mensen die weten hoe het systeem werkt.