Een kleine groep ongeautoriseerde gebruikers lijkt toegang te hebben gekregen tot het nieuwe en bijzonder krachtige Mythos AI-model van Anthropic, wat de lekkagerisico’s van zelfs de meest “vergrendelde” technologieën benadrukt. Volgens informatie van Bloomberg werd toegang verkregen via een combinatie van methoden: het exploiteren van rechten die een individu had via een externe partner van Anthropic, maar ook het gebruik van online onderzoeks- (speur)tools om onveilige sites te identificeren.
Het incident vond naar verluidt plaats op dezelfde dag dat Anthropic aankondigde dat het Mythos beschikbaar zou stellen aan een beperkt aantal bedrijven om te testen als onderdeel van Project Glasswing. Het bedrijf heeft zelf gewaarschuwd dat Mythos in staat is – als het wordt gevraagd – kwetsbaarheden in grote besturingssystemen en browsers te vinden en te exploiteren. Dit is ook de reden dat alleen toegang wordt verleend aan geselecteerde partners, met als doel de cyberveiligheid te versterken.
Op de lijst met testers staan giganten als Apple, Amazon en Cisco, terwijl er steeds meer belangstelling bestaat bij banken en overheidsinstanties in Europa en de VS. Gebruikers, die deelnamen aan een privé online forum (Discord), hebben naar verluidt de “locatie” van het model bepaald door weloverwogen gissingen te doen over de structuur van de systemen van Anthropic. Bovendien maakten ze gebruik van informatie die was gelekt uit een recent datalek bij Mercor, een startup die samenwerkt met AI-bedrijven.
Anthropic bevestigde dat het het incident onderzoekt, maar verduidelijkte dat er tot nu toe geen aanwijzingen zijn dat de toegang zijn kernsystemen beïnvloedde of zich uitstrekte tot buiten de omgeving van een externe partner. Volgens de bron heeft de groep Mythos niet gebruikt voor aanvallen, maar voor meer ‘onschuldige’ tests, zoals het maken van eenvoudige webpagina’s – vermoedelijk om detectie te voorkomen.
Het incident roept echter serieuze vragen op: hoe gemakkelijk is het om gereedschap te lekken dat als potentieel gevaarlijk wordt beschouwd, en wie gebruikt ze nu al ongecontroleerd? De zaak benadrukt de moeilijkheid waarmee AI-bedrijven worden geconfronteerd bij het beperken van de toegang tot hun krachtigste modellen – vooral in een tijd waarin de technologie sneller evolueert dan de beveiligingssystemen die daarbij horen.






























































