

Een reflectie op technologie, macht en de keuzes die we vandaag nog kunnen maken
We leven in een moment van grote macht en grote blindheid tegelijk.
Technologie transformeert elk aspect van ons leven — hoe we communiceren, leren, werken, liefhebben, welke keuzes we maken. Algoritmes bepalen wie werk krijgt, wie een lening kan krijgen, welke informatie je te zien krijgt. AI genereert content, diagnoses, en in toenemende mate: professionele en persoonlijke keuzes.
Maar we gedragen ons alsof al deze systemen neutraal zijn. Alsof ze gewoon "efficiënt" werken. Dat is een gevaarlijke illusie.
Technologie is nooit neutraal. Elk algoritme, elk systeem codeert waarden — en vaak ook vooroordelen.
Wie bouwt de technologie? Overwegend blanke, mannelijke, Westerse developers.
Waar wordt het op getraind? Data die gegenereerd is door dezelfde groep — of door de helft van de wereld waar we niet zien.
Wat gebeurt er? De vooroordelen van gisteren worden vandaag geautomatiseerd.
Voorbeelden die niet meer theoretisch zijn:
Dit is niet een risico dat misschien gebeurt. Dit gebeurt nu. Dit moment.
Hier ligt een patroon onder: technologie volgt altijd dezelfde levenscyclus.
Buskruit begon met vuurwerk. Snel aangepast voor oorlog.
Dynamiet werd uitgevonden voor mijnbouw. Werd wapen.
Kernenergie solliciteerde zich aan als schone energie. Werd kernbom.
Het internet was bedoeld voor onderzoeks- en communicatieweerbaarheid. Werd instrument voor cyberoorlog, surveillance, desinformatie.
AI begint "onschuldig" — chatbots die helpen, algoritmes die efficiënter maken. We zien al wat er kan volgen.
En ieder keer, ieder keer, negeren we de waarschuwingen totdat de schade zichtbaar is.
Oppenheimer zei in 1945: "If you are a scientist, you cannot stop such a thing." We accepteerden die passiviteit. Decennia later realiseert hij zich: "We moeten iets anders doen."
Cliff Stoll waarschuwde in 1995: cyberspace zal geen paradijs zijn, privacy verdwijnt, macht concentreert. Iedereen lachte hem uit. 30 jaar later: hij had gelijk op vrijwel alles.
We luisteren niet naar waarschuwingen voordat het te laat is. We luisteren pas nadat de schade zichtbaar is.
Maar hier is het goeie nieuws: we hebben ook een antwoord gegeven.
Na 1945, na Hiroshima, installeerden we guardrails:
Deze werkten niet perfect. De wapenrace raasde door. Landen deden stiekem onderzoek. Maar: we hebben geen nucleaire oorlog gehad.
Waarom? Omdat we eindelijk beide groepen — wetenschappers EN beleidsmakers, engineers EN humanisten — aan tafel kregen. Omdat we erkenden dat vooruitgang niet automatisch goed is. Omdat we regels stelden.
We kunnen hetzelfde doen met AI.
Tim Berners-Lee, uitvinder van het web, zag wat hij zelf had gemaakt ontaard in concentratie van macht. In 2018 waarschuwde hij: "Het internet wordt een oligopolie." Hij creëerde toen zijn "Contract for the Web" — zijn versie van guardrails.
Dit is wat we nodig hebben: niet meer innovatie, maar bewuste architectuur van vertrouwen, transparantie en accountability.
1. Wie Bouwt Technologie Moet Diverser Zijn
Je kunt bias niet weg-engineeren met dezelfde groep die de bias in de eerste plaats heeft gecreëerd. We hebben developers nodig uit verschillende achtergronden, culturen, geslachten. We hebben filosofen, ethici, antropologen aan tafel nodig — niet alleen coders.
2. Ethiek Moet Voorafgaan aan Compliance
Compliance is regels achteraf. Ethiek is waarden vooraf. Voordat je systeem live gaat, stel jezelf vragen:
3. "Mens-in-de-Lus" Moet Standaard Zijn
Geen algoritme mag autonoom over leven, dood, recht of lichaam beslissen. Altijd: een mens die kan zeggen "stop." Altijd: mogelijkheid voor transparantie en bezwaar. Altijd: het recht om je af te melden.
We zijn niet zonder macht in dit verhaal. We hebben alleen veel te lang gedacht dat we dat waren.
Dewi Van De Vyver is CEO en mede-oprichter van Effex, een KU Leuven-spin-off gericht op ethische technologie en verantwoorde data-inzet. Hij spreekt en schrijft regelmatig over de maatschappelijke impact van AI en de rol van ethiek in innovatie.
I love receiving inspiring questions. Feel free to challenge my mind!