In de Verenigde Staten zijn er reacties ontstaan na het nieuws dat de kunstmatige intelligentie-tool Claude van Anthropic werd gebruikt bij een Amerikaanse militaire operatie om de voormalige president van Venezuela, Nicolaas Maduro, gevangen te nemen. Het rapport van de Wall Street Journal, waarin mensen met kennis van zaken worden geciteerd, gaf echter geen details over hoe het AI-model precies werd ingezet tijdens de operatie, inclusief de bombardementen op verschillende locaties in Caracas vorige maand.
Het gebruik van kunstmatige intelligentie door grote bedrijven roept een delicaat evenwicht op, aangezien ze contracten proberen te sluiten met het leger en overheidsinstanties, maar tegelijkertijd grenzen proberen te stellen aan het gebruik van hun modellen, met name op het gebied van massasurveillance of autonome wapensystemen. De richtlijnen van Anthropic verbieden bijvoorbeeld het gebruik van Claude voor geweldsfacilitatie, wapenontwikkeling of surveillance.
Volgens Axios heeft het Amerikaanse leger niet alleen het AI-model van Anthropic gebruikt tijdens de voorbereidingsfase, maar ook tijdens de actieve fase van de operatie tegen Maduro. Hoewel de specifieke functies van het model niet zijn gespecificeerd, wordt gemeld dat het leger het in het verleden heeft gebruikt voor de analyse van satellietbeelden en de verwerking van realtime informatie, essentiële capaciteiten in complexe en dynamische omgevingen.
Na de vrijgave van deze informatie heeft een hoge Amerikaanse regeringsfunctionaris aangegeven dat het Pentagon zijn partnerschap met Anthropic opnieuw bekijkt, wat wijst op zorgen binnen het ministerie van Defensie over het standpunt van het bedrijf. Anthropic heeft echter elke inmenging of communicatie ontkend die het bedrijf zou kunnen beïnvloeden.
De reacties op het gebruik van kunstmatige intelligentie bij de operatie om Maduro te arresteren tonen aan hoe gevoelig dit onderwerp is en hoe belangrijk het is om duidelijke richtlijnen en ethische normen te hebben bij het gebruik van AI in dergelijke situaties. Het blijft een uitdaging om de voordelen van kunstmatige intelligentie te benutten zonder de ethische grenzen te overschrijden.



























































