Een recente cyberaanval die werd uitgevoerd door Chinese hackers heeft de aandacht getrokken van de Amerikaanse start-up Anthropic, die gespecialiseerd is in kunstmatige intelligentie. De hackers maakten gebruik van de chatbot ‘Claude’ van Anthropic om gegevens te stelen van dertig doelwitten, waaronder grote technologiebedrijven, financiële instellingen en overheidsinstanties in verschillende landen. Het bedrijf ontdekte de aanval medio september en wist deze te stoppen voordat er verdere schade kon worden aangericht.
De groep hackers, genaamd GTG-1002 en gesteund door de Chinese staat, wist de beveiligingsmechanismen van Claude te omzeilen en deed zich voor als cyberbeveiligingsprofessionals. Hierdoor slaagden ze erin om onopgemerkt gegevens te stelen totdat het bedrijf de aanval opmerkte. Anthropic nam direct maatregelen door de accounts van de hackers te blokkeren, de relevante autoriteiten in te lichten en verbeterde detectiemiddelen in te voeren.
Wat deze cyberaanval zo opmerkelijk maakt, is het feit dat de hackers de Claude-robot autonoom lieten handelen. Dit is een nieuwe ontwikkeling in de wereld van cybercriminaliteit, waarbij AI-modellen zelfstandig worden ingezet om aanvallen uit te voeren. Hoewel chatbots zoals ChatGPT van OpenAI en Gemini van Google eerder zijn gebruikt om cyberaanvallen te automatiseren, is het voor het eerst dat een AI-model volledige vrijheid kreeg om zelfstandig te handelen.
Deze gebeurtenis werpt een nieuw licht op de manier waarop hackers AI gebruiken om hun doelen te bereiken. In plaats van handmatige aanvallen uit te voeren, kunnen hackers nu AI-modellen manipuleren om autonoom cyberaanvallen uit te voeren met minimale menselijke tussenkomst. Het is een zorgwekkende ontwikkeling die aantoont hoe snel de wereld van cybercriminaliteit evolueert en hoe belangrijk het is voor bedrijven en overheden om zich hiertegen te beschermen.





























































