Maanden voordat de 18-jarige Jessie Van Ruchelaar werd geïdentificeerd bij de dodelijke schietpartij op een school in Tumbler Ridge, British Columbia, had het bedrijf OpenAI verontrustende aanwijzingen uit zijn gesprekken met ChatGPT. Volgens een rapport van de Wall Street Journal, waarin mensen werden aangehaald die bekend waren met de interne procedures, had de 18-jarige in opeenvolgende gesprekken scenario’s van gewapend geweld beschreven.
Het geautomatiseerde controlesysteem van het bedrijf “luidde alarm”, wat een interne mobilisatie veroorzaakte. Ongeveer een dozijn werknemers waren betrokken bij discussies over de vraag of de Canadese autoriteiten op de hoogte moesten worden gesteld. Sommigen waren van mening dat haar geschriften konden duiden op een risico op daadwerkelijk geweld en drongen aan op aangifte bij de Canadese politie. De leiding van het bedrijf kwam echter tot de conclusie dat niet was voldaan aan de criteria voor het informeren van de autoriteiten, die een ‘geloofwaardige en onmiddellijke dreiging van ernstig lichamelijk letsel’ vereisen.
Op 10 februari werd Van Ruchelaar dood aangetroffen op het schoolterrein, naar verluidt als dader van de aanval waarbij acht mensen omkwamen en minstens 25 gewond raakten. De Royal Canadian Mounted Police (RCMP) heeft haar als verdachte genoemd en doet uitgebreid onderzoek naar haar digitale en persoonlijke vingerafdruk. Na de aanval nam OpenAI contact op met de autoriteiten en zei dat het volledig meewerkte aan het onderzoek, waarbij het zijn condoleances betuigde voor de tragedie bij Tumbler Ridge. Onderzoekers kijken naar haar bredere online activiteiten: van posts op sociale media tot een videogame die ze op het Roblox-platform heeft gemaakt en die een schietaanval simuleerde.
De zaak brengt een complex dilemma opnieuw op de voorgrond: waar houdt de bescherming van de privacy op en begint de plicht om dit te voorkomen? AI-platforms, waaraan gebruikers vaak hun meest persoonlijke gedachten toevertrouwen, moeten nu in realtime het risico op geweld afwegen tegen het risico van onnodige politie-inmenging. OpenAI beweert dat zijn modellen zijn ontworpen om schadelijke handelingen te ontmoedigen en dat gevallen van potentiële schade worden doorgestuurd naar menselijke beoordelaars. Het blijft echter een moeilijk, vaak grijs gebied om te beslissen of een dreiging ‘onmiddellijk’ en ‘geloofwaardig’ is.
Bij Tumbler Ridge werd de prijs van deze grijze zone gemeten in mensenlevens – en de vraag naar de rol van AI bij het voorkomen van dergelijke tragedies is nu urgenter dan ooit.




























































