Een groep van meer dan 200 wetenschappers, onderzoekers en leidinggevenden op het gebied van kunstmatige intelligentie, waaronder tien Nobelprijswinnaars, heeft recentelijk een gezamenlijke oproep gedaan voor de oprichting van een internationaal regulerend kader voor kunstmatige intelligentie. Deze oproep komt voort uit zorgen over de potentieel verwoestende gevolgen van ongecontroleerde ontwikkeling van AI-technologieën.
De wetenschappelijke gemeenschap benadrukt dat kunstmatige intelligentie enorme potentie heeft voor de mensheid, maar dat de huidige koers risico’s met zich meebrengt die ongekend zijn. Ze pleiten voor internationale samenwerking om overeenkomsten te bereiken over rode lijnen in kunstmatige intelligentie, om zo de grote risico’s van deze technologie te beperken.
Het Center for the Safety of Artificial Intelligence (Cesia), een Franse entiteit, samen met toekomstige samenlevingen en het Center for Human-Compatible Artificial Intelligence van de Universiteit van Berkeley, spelen een centrale rol in dit initiatief. Ze waarschuwen voor mogelijke risico’s zoals pandemie-uitbraken, verspreiding van verkeerde informatie, nationale veiligheidsproblemen, massale werkloosheid en schendingen van de mensenrechten.
De groep van ondertekenaars omvat bekende namen uit de industrie, zoals Jason Clinton van Anthropic en medewerkers van Deepmind en Openai. Ook Nobelprijswinnaar Jeffrey Hidon en professor Yoshua Benzio behoren tot de ondertekenaars.
De wetenschappers benadrukken dat er al internationale overeenkomsten bestaan over gevaarlijke technologieën, zoals het Verdrag inzake het verbod op chemische wapens. Ze roepen op tot soortgelijke afspraken voor kunstmatige intelligentie om de risico’s te beperken.
Het is duidelijk dat de wetenschappelijke gemeenschap ernstige bezorgdheid heeft over de ontwikkeling van kunstmatige intelligentie en de mogelijke gevolgen voor de mensheid. Een internationaal regulerend kader lijkt dan ook essentieel om deze technologie op een verantwoorde manier te ontwikkelen en te gebruiken.






























































