Het Amerikaanse Pentagon en kunstmatige-intelligentiebedrijf Anthropic bevinden zich momenteel in een impasse over het gebruik van het AI-model Claude. Het Pentagon wil AI-modellen kunnen inzetten voor alle legitieme toepassingen, terwijl Anthropic beperkingen heeft opgelegd aan het gebruik van zijn technologie, zoals bij binnenlandse surveillance of autonome dodelijke systemen.
De relatie tussen Silicon Valley en het militaire establishment staat op het spel, aangezien dit conflict de discussie over ‘ontwaakte’ technologie en nationale veiligheid weer aanwakkert. Anthropic, dat eerder heeft samengewerkt met de federale overheid en militaire operaties heeft ondersteund, wordt nu beschouwd als een potentieel ‘toeleveringsketenrisico’ door ambtenaren van het Pentagon.
De zaak heeft ook sterke politieke implicaties, aangezien Anthropic CEO Dario Amodei openlijk kritiek heeft geuit op Donald Trump en het bedrijf voormalige regeringsfunctionarissen van Biden heeft ingehuurd. Ondanks het recente succes van het bedrijf in het ophalen van investeringen, wordt het geconfronteerd met uitdagingen op het gebied van politieke kleur en regulering van kunstmatige intelligentie.
Het Pentagon eist van zijn technologiepartners volledige beschikbaarheid voor elke legitieme militaire toepassing, wat de spanningen met Anthropic verder opvoert. Een mogelijke exit uit Anthropic zou de Amerikaanse capaciteiten in de AI-race kunnen verzwakken en een precedent scheppen voor samenwerking met andere bedrijven.
De ontwikkeling markeert een dramatische ommekeer in de houding van de industrie ten opzichte van militair gebruik van technologie, waarbij de vraag rijst of er ruimte is voor ‘rode lijnen’ in het veld van kunstmatige intelligentie dat steeds meer een cruciaal wapen van geopolitieke macht wordt.




























































