Met het recente nieuws over een ‘digitale minister’ in buurland Albanië keert een lastige vraag terug: kan een kunstmatig intelligentiesysteem beslissen wat goed en wat fout is? Wat is eerlijk en wat is oneerlijk? Kunstmatige intelligentie belooft snelheid, consistentie en weerstand tegen druk. Het levert antwoorden en redeneringen op in tijden die voor de menselijke geest ongrijpbaar en zelfs onwaarschijnlijk zijn. Maar de kracht ervan ligt niet in het ‘algoritme’ dat vaak kan worden omschreven als een zwarte doos; het zit in de gegevens waarmee we het voeden.
Elk model leert van voorbeelden, van data. Je kiest deze voorbeelden, besluit welke gevallen worden geteld, welke worden genegeerd, hoe gebeurtenissen worden ‘gelabeld’ en gecategoriseerd, en welke stemmen ontbreken – tegengestelde en niet-. Het ‘juiste’ gecodeerde en uiteindelijk gebruikte door het ‘algoritme’ schiet dus niet omhoog. Het is een product van een specifiek sociaal en historisch moment.
Bedenk eens hoeveel gewoonten en houdingen uit vroeger tijden voor ons vandaag de dag ondenkbaar lijken. Het gaat niet alleen om sociale vooruitgang. Dit zijn ervaringen, trauma’s, claims, sociale gistingen die in de samenleving en onze collectieve criteria zijn geïntegreerd. Cultuur evolueert, onderwijst en gaat vooruit. Wat gisteren als “eerlijk” werd beschouwd, wordt vandaag herzien en kan morgen zelfs worden verworpen.
De samenleving leeft in deze mutatie van de moraal, en elke nieuwe generatie wordt opgevoed door haar voorganger. Tijdens het onderwijs geeft de vorige generatie door wat hun eigen vorige generatie hen heeft geleerd, verrijkt door hun ervaringen en ervaringen, en vormt zo een nieuw model van moraliteit.
Bij modellen voor kunstmatige intelligentie gaat het bij training om het voeden van het systeem met een grote hoeveelheid relevante gegevens. Het model analyseert deze gegevens en leert ervan. Hoe beter de kwaliteit van de data die tijdens de training worden gebruikt, hoe nauwkeuriger en effectiever het AI-model zal zijn.
Dus als we een systeem trainen op een momentopname van ‘juist’ en het steeds weer dezelfde patronen laten reproduceren, lopen we het risico dat de controleerbaarheid ervan bevriest. Met andere woorden: om een einde te maken aan wat goed was in de versie van gisteren, en de evolutie ervan te stoppen.
Het gebruik van kunstmatige intelligentie in de publieke sector is niet alleen een technische opgave. Het is een machtsuitoefening met reële gevolgen voor rechten, middelen en kansen. Hoe institutioneler haar rol, hoe strenger de garanties moeten zijn: een duidelijke wettelijke basis, menselijk toezicht met de mogelijkheid om in te grijpen, de mogelijkheid tot beroep voor de burger, onafhankelijke controle en verantwoording.
De oplossing is niet om kunstmatige intelligentie om nog een andere reden te demoniseren. Het gaat erom het in te bedden in bestuurscycli die ervoor zorgen dat het concept van ‘eerlijk’ open blijft voor overleg en in staat is zich te ontwikkelen. Dit betekent geïnstitutionaliseerde processen voor het beoordelen van gegevens en criteria, vertegenwoordiging van de minst gehoorde stemmen, documentatie van de herkomst van gegevens, meetbare eerlijkheidscriteria en verplichte openbaarmaking van prestatie-indicatoren. Het betekent ook het voor de hand liggende: het recht van een burger om een menselijke beoordeling aan te vragen, met vastgelegde redenen en deadlines.
Onze grote gok is niet het bouwen van onfeilbare modellen, maar het bouwen van instellingen die bestand zijn tegen onzekerheid. Rechtvaardigheid is geen wiskundige vergelijking, het is niet iets statisch, maar een voortdurende inspanning en een continu proces van verwezenlijking. En als degene die de input controleert inderdaad de uitkomst kan beïnvloeden, dan moet de input gecontroleerd worden.




























































