Stel je voor: je leest een studie die beweet dat een bepaald supplement je gezondheid enorm verbetert.
▶Inhoudsopgave
Je koopt het, gebruikt het maandenlang — en er gebeurt niets. Dan blijkt dat niemand anders de resultaten kan herhalen. Geen enkele onderzoeksgroep. Dat is geen uitzondering.
Dat is de replicatiecrisis. En die zit veel dieper dan je denkt.
De wetenschap kampt met een groeiend probleem: een groot deel van de gepubliceerde onderzoeken kan niet worden herhaald.
Dat klinkt misschien technisch, maar de gevolgen zijn reëel. Van verspild onderzoeksgeld tot medische behandelingen die op losse schroeven staan. De goede nieuws? FAIR data biedt een concrete manier om dit probleem aan te pakken. Maar laten we eerst begrijpen waar het misgaat.
Wat is de replicatiecrisis precies?
De replicatiecrisis betekent simpelweg dit: veel wetenschappelijke bevindingen kunnen niet worden herhaald door andere onderzoekers.
Als een studie echt betrouwbaar is, zou een andere team met dezelfde methode tot dezelfde resultaten moeten komen. Maar dat gebeurt lang niet altijd. In 2016 publiceerde het tijdschrift Nature een verontrustend onderzoek. Meer dan 200 wetenschappelijke studies werden onder de loep genomen — en een groot deel bleek niet te kunnen worden gerepliceerd.
Maar het ergste kwam later. Een uitgebreide studie in 2021, gepubliceerd in Scientific Reports, analyseerde 191 onderzoeken uit verschillende vakgebieden. Het resultaat?
70% van de onderzoeken kon niet worden herhaald. Zeventig procent. En het verschilt per discipline.
In de psychologie liepen projecten als de Reproducibility Project: Psychology al jarenlang mee en toonden aan dat een aanzienlijk deel van de gepubliceerde literatuur simpelweg niet houdt wat het belooft. In de biologie ziet het er niet veel beter uit. Dit is geen incident. Dit is een systeemprobleem.
Waarom lukt het niet om onderzoek te repliceren?
De oorzaak is zelden dat onderzoekers expres slecht werk leveren. Het is ingewikkelder dan dat.
Onvoldoende methodologiebeschrijving
Meerdere factoren spelen tegelijkertijd mee. Veel publicaties geven niet genoeg detail over hoe het onderzoek precies is uitgevoerd. Andere onderzoekers kunnen de studie daardoor niet nadoen.
Data blijft achter gesloten deuren
De druk om te publiceren — het bekende "publish of perish" — zorgt ervoor dat snelheid vaak boven zorgvuldigheid gaat. Zelfs als de methode helder beschreven is, zonder toegang tot de originele data kun je niets verifiëren. En die data?
Statistische fouten en publication bias
Die ligt vaak op een harde schijf op een kantoor dat al geruimd is.
Omgevingsfactoren en oncontroleerbare variabelen
Of in een spreadsheet zonder uitleg. Of gewoon: nergens. Soms worden statistische analyses onjuist uitgevoerd. Soms worden resultaten "opgepoetst" om significant te lijken. En tegelijk publiceren tijdschriften vaker positieve resultaten dan negatieve.
Dat scheeftrekken van de literatuur — publication bias — betekent dat de wetenschappelijke wereld een vertekend beeld krijgt van wat echt werkt. Zelfs kleine verschillen kunnen grote gevolgen hebben. De temperatuur in een lab, het merk reageerbuisjes, de tijd van de dag waarop een test wordt afgenomen — dit soort details worden zelden gerapporteerd, maar kunnen het verschil maken tussen een succesvolle replicatie en een mislukking.
Wat zijn de gevolgen?
De replicatiecrisis is geen academisch probleem. Het raakt iedereen. Ten eerste wordt er enorm veel geld verspild.
Onderzoekers besteden tijd en middelen aan het herhalen van studies die al eerder zijn uitgevoerd — terwijl die tijd beter besteed kan worden aan nieuwe ontdekkingen.
Ten tweede vertraagt het de wetenschappelijke vooruitgang. Als je niet kunt vertrouwen op bestaande kennis, bouw je op driej zand. En ten derde: het ondermijnt het publieke vertrouwen in de wetenschap.
Als studies steeds worden weersproken, waarom zou de burger dan geloven wat wetenschappers zeggen? In de gezondheidszorg zijn de gevolgen het meest zichtbaar. Behandelingen die gebaseerd zijn op onbetrouwbare studies kunnen patiënten schaden. Beleidsvorming op basis van ongeldige data kan miljoenen kosten en weinig opleveren.
FAIR data: de oplossing in vier principes
FAIR staat voor Findable, Accessible, Interoperable en Reusable. Het is geen buzzword.
Findable — vindbaar
Het is een concreet kader dat ervoor zorgt dat onderzoeksdata daadwerkelijk bruikbaar is — voor iedereen, altijd. Data moet te vinden zijn.
Accessible — toegankelijk
Klinkt logisch, maar in de praktijk zit data vaak verborgen in mappen met namen als "final_v3_definitief.xlsx". FAIR data vraagt om duidelijke metadata: beschrijvingen die anderen in staat stellen om de data te vinden via zoekmachines en repositories. Standaarden zoals Dublin Core helpen daarbij. Vindbaar is niet genoeg.
Data moet ook toegankelijk zijn. Dat betekent: gepubliceerd in openbare repositories, voorzien van duidelijke licenties, en zonder onnodige drempels.
Interoperable — interoperabel
Toegang hoeft niet altijd anoniem te zijn — soms is authenticatie nodig — maar het proces moet transparant en eenvoudig zijn. Data moet samen kunnen werken met andere datasets. Als de ene onderzoeker alles in het Amerikaanse maarstelsel noteert en de andere in metrisch, wordt combineren een nachtmerrie.
Gestandaardiseerde formaten en vocabularia maken het mogelijk om data uit verschillende bronnen te integreren. Dat is essentieel voor grootschalig onderzoek.
Reusable — herbruikbaar
Tot slot moet data herbruikbaar zijn. Niet alleen voor de onderzoeker die het oorspronkelijk verzamelde, maar voor iedereen die er later mee aan de slag wil.
Dat vraagt om grondige documentatie: wat betekenen de kolommen, welke eenheden zijn gebruikt, onder welke omstandigheden is de data verzameld?
FAIR data in de praktijk: het werkt echt
Dit zijn geen theoretische idealen. Over de hele wereld zijn er al initiatieven die FAIR data toepassen — en het verschil is merkbaar.
Het National Center for Biotechnology Information (NCBI) in de Verenigde Staten beheert enorme databases zoals PubMed en GenBank.
Biologische data wordt gestandaardiseerd opgeslagen en is vrij toegankelijk voor onderzoekers wereldwijd. Dat heeft de snelheid van biomedisch onderzoek enorm vergroot. De Open Science Framework (OSF) is een platform waar je als onderzoeker je studie kunt preregistreren en je hele onderzoeksproces kunt documenteren en delen: van data en code tot methodologieën en tussentijdse resultaten.
Transparantie wordt daarmee de norm, niet de uitzondering. En ook in Nederland gebeurt er veel. Universiteiten en organisaties als de VSNU werken actief aan het verbeteren van de vindbaarheid van Open Science-informatie en het bieden van richtlijnen voor onderzoekers, zoals via Registered Reports in Nederlandse journals. Het doel is duidelijk: van data delen als uitzondering naar data delen als standaard.
Wat betekent dit voor onderzoekers?
FAIR data is geen extra last — het is een investering in de kwaliteit van je werk.
Onderzoekers die hun data FAIR maken, zorgen ervoor dat hun bevindingen controleerbaar zijn. En dat vergroot het vertrouwen in hun conclusies. Dat begint al vroeg in het onderzoeksproces. Plan je dataverzameling, documenteer alles, kies standaardformaten, en deel je data via betrouwbare repositories. Universiteiten en onderzoeksinstituten spelen een rol door het bieden van infrastructuur, training en beleid dat data delen beloont in plaats van bestrafft.
De weg vooruit
De replicatiecrisis is reëel, maar niet onoverkomelijk. FAIR data en The Turing Way als leidraad bieden een bewezen kader om de reproduceerbaarheid van de wetenschap fundamenteel te verbeteren.
Het vraagt wel een cultuurverschiving: van data als privébezit naar data als gemeenschappelijk goed. De cijfers zijn duidelijk. Zeventig procent van de onderzoeken kan niet worden herhaald.
Dat is geen detail — dat is een wake-up call. En FAIR data is een van de meest concrete antwoorden die we hebben.
Niet omdat het een technische fix is, maar omdat het transparantie, samenwerking en verantwoordelijkheid centraal stelt.
Precies waar de wetenschap naar op zoek is.