We zouden ons in deze situatie, waarin de hoeveelheid beschikbare kennis enorm is, maar het vertrouwen in de expert om die kennis te duiden afkalft, een paar dingen moeten realiseren. Ten eerste: A little knowledge is a dangerous thing, zoals de Engelsen dat zo mooi zeggen. Iets weten is mooi, maar die kennis moet zich verhouden tot de context waar deze uit komt. Wat is je ‘informatiepositie’? Hoe verhoudt een uurtje googlen zich tot een jarenlange studie? Zoals een paar lessen handvaardigheid zich verhouden tot de volledige opleiding tot technisch ingenieur, denk ik, en dus lijkt het me geen vraag wie van de twee we onze vliegtuigen laten repareren. De expert weet niet altijd alles beter, maar weet wel veel beter wat hij of zij weet (en niet weet) in relatie tot wat er te weten valt, en wat hij of zij moet weten en in relatie tot het vraagstuk dat voorligt.
Ten tweede: iedereen is vatbaar voor de confirmation bias: je bent geneigd informatie die jouw mening ondersteunt, overtuigender te vinden dat informatie die jouw mening tegenspreekt. Dat geldt natuurlijk niet alleen voor de sceptici, maar ook voor degenen die zich scharen achter de wetenschappelijke consensus over vaccinatie, stikstof of klimaatopwarming. Ook daar werkt de denkfout dat je de informatie die jouw opvatting onderbouwt op voorhand al overtuigender vindt.
Een van de methodes om deze bias zoveel mogelijk te omzeilen is, volgens Daniel Kahneman, de psycholoog die een Nobelprijs kreeg voor zijn baanbrekend onderzoek op dit gebied: je bewust zijn van deze snelle, gemakkelijke vooroordelen (systeem 1) en bereid te zijn deze te (laten) corrigeren met kennis die ontstaat uit het langzame, methodische denken (systeem 2). Met andere woorden: laat wetenschap onze vooroordelen corrigeren, indien nodig.
Dat opvattingen aan de wetenschap voorafgaan is niet erg, schadelijk wordt het als die opvattingen niet meer gecorrigeerd worden door de resultaten van wetenschap.