In de vorige twee hoofdstukken (en in de appendix) zagen we hoe ons spontaan denken ons misleidt en waarom dat zo is. Aan de ene kant heb je ons snelle, automatische en intuïtieve denken (systeem 1) dat approximatief want zuinig is, soms ‘met opzet’ misleidt door ons met meer fouten op te zadelen om dure fouten te vermijden (error management), en in bepaalde moderne contexten tot irrationaliteit leidt omdat de problemen waarvoor het door natuurlijke selectie ontworpen is verschillen van de moderne problemen waarop we het nu loslaten (mismatch). Aan de andere kant heb je ons trage, reflectieve en bewuste denken (systeem 2) dat de output van systeem 1 kritisch kan gaan analyseren en indien nodig overschrijven. Maar ook systeem 2 blijkt niet onfeilbaar. Het zadelt ons immers op met een sterke confirmation bias – de neiging om enkel open te staan voor bevestigende informatie en bewijzen. Tenslotte moeten ook onze emoties in rekenschap gebracht worden. Ons denken blijkt niet los te staan van ons voelen. Een heel prominente bias die hieruit voortkomt is de zogenaamde ‘ingroup – outgroup bias’, waardoor we bronnen binnen onze groep te gemakkelijk vertrouwen en bronnen buiten de groep wantrouwen. Deze systematische en (menselijk) universele redeneerfouten liggen aan de basis van domeinen van irrationaliteit of illusies. Dit zijn verzamelingen van vaak voorkomende overtuigingen die de werkelijkheid verkeerd voorstellen. In dit hoofdstuk gaan we dieper in op deze domeinen.
Een eerste belangrijke bron van irrationaliteit is onze ‘over-perceptie’ van verbanden. Zoals besproken in het vorige hoofdstuk, was het voor onze verre voorouders in hun natuurlijke omgeving over het algemeen minder erg (met het oog op overleving en reproductie) om oorzakelijke verbanden te zien die er in werkelijkheid niet waren, dan oorzakelijke verbanden te missen die er in werkelijkheid wel waren. Het gevolg hiervan is dat natuurlijke selectie onze radar voor het detecteren van oorzakelijke verbanden te scherp heeft afgesteld.
Het domein bij uitstek waar deze redeneerfout toe leidt is bijgeloof. Bijgeloof heeft vele gezichten en is van alle tijden. Het komt er voornamelijk op neer dat mensen allerlei patronen en verbanden menen waar te nemen die er in werkelijkheid niet zijn. Horoscopen leggen verbanden tussen de stand van hemellichamen en ons persoonlijk wedervaren hier op aarde, helderzienden leggen verbanden tussen de lijnen in onze handpalm (of willekeurig getrokken kaarten) en onze toekomst. En als we niet op onze hoede zijn dan gaan we door onze confirmation bias mee in deze verhalen en menen we dat die vormen van divinatie het daadwerkelijk bij het rechte eind hebben. We zijn namelijk veel receptiever voor bevestigend bewijs dan voor tegenbewijs.
Op een meer alledaags niveau, zijn we geneigd verbanden te leggen tussen objecten die we bij ons hadden toen we successen boekten en het boeken van die successen (denk aan de geluksokken van de sportman) en tussen bepaalde handelingen (onder een ladder lopen), objecten (hoefijzers), dieren (zwarte katten) of nummers (13) en geluk of ongeluk. Bijgeloof heeft altijd bestaan en zal wellicht altijd blijven bestaan. Het is immers een (ongewild) bijproduct van het feit dat de architect van ons denkapparaat (natuurlijke selectie) er voor wilde zorgen dat we zeker geen belangrijke verbanden in onze omgeving over het hoofd zagen.
Zelfs als er daadwerkelijk een verband of correlatie is tussen twee gebeurtenissen, is dat verband – in tegenstelling tot wat we geneigd zijn te denken – niet altijd oorzakelijk. ‘Correlation does not imply causation’! Een goede illustratie hiervan deed zich voor op een Israëlische luchtvaartbasis. De instructeur merkte het volgende op: nadat hij een piloot in opleiding feliciteerde na een heel goed uitgevoerd manoeuvre, presteerde die piloot vaak slechter bij een volgend manoeuvre. Omgekeerd wanneer hij een piloot een uitbrander gaf na een slecht uitgevoerd manoeuvre, presteerde die de volgende keer vaak beter. Hij besloot hieruit dat straffen beter werkt dan belonen en dat hij voortaan enkel afstraffing zou gebruiken.
De reden voor de correlatie had echter niets te maken met de complimenten of uitbranders, maar gewoon met het feit dat na een uitzonderlijk goede prestatie, statistisch gezien de kans op een zwakkere prestatie veel groter is dan een gelijkaardige of betere prestatie. Het omgekeerde geldt uiteraard na een zwakke prestatie. Na een ondermaatse prestatie, is de kans dat de volgende prestatie beter is statistisch groter. Dat fenomeen heet ‘regression to the mean’ en wordt ook vaak over het hoofd gezien in alternatieve geneeskunde cirkels (zie hieronder).
Aangezien we geneigd zijn te snel oorzaken, patronen en betekenis te zien, onderschatten we vaak de rol van willekeur en toeval. Zo zien mensen patronen in willekeurige sequenties (bv. van nummers) én zitten er patronen in door mensen opgestelde sequenties wanneer ze gevraagd worden om ze volledig willekeurig op te stellen. Dat laatste komt omdat ze bewust er teveel afwisseling in brengen (bv. bij nummers nooit twee keer hetzelfde nummer na elkaar, of bij kop en munt nooit reeksen van meer dan drie keer kop of munt na elkaar, terwijl in werkelijk willekeurige series dat vaak voorkomt). We zien dus orde in willekeur en imiteren willekeur met orde! Opmerkelijk in deze context is dat de eerste iPod Shuffle die liedjes willekeurig afspeelde al snel aangepast werd omdat er veel klachten kwamen van mensen die ervan overtuigd waren dat de opeenvolging van liedjes niet echt willekeurig was. Het gevolg: Apple maakte het afspeelalgoritme niet langer willekeurig om het willekeurig te laten lijken!
Ook toeval wordt schromelijk onderschat. Van sportmannen die enkele doelpunten na elkaar maken wordt gezegd dat ze op een ‘confidence streak’ zitten, en van collega’s die een aantal missers na elkaar laten noteren dat ze ‘gebroken zijn onder de druk’. Terwijl psychologie uiteraard een rol speelt in sportprestaties en die analyses dus in principe kunnen steekhouden, heeft statistische analyse in het basketbal aangetoond dat die vermeende clusters van doelpunten en missers willekeurig zijn. Toch worden wedstrijden nog altijd op zo’n manier geanalyseerd omdat het lijkt alsof er wel degelijk een verband is tussen een voorafgaand doelpunt of misser van een speler en de waarschijnlijkheid dat deze speler de volgende keer zal scoren of missen. Voor dat fenomeen bedachten psychologen de term ‘hot hand fallacy’ (Gilovich et al., 1985). Ook buiten de sport context wordt het belang van toeval onderschat. Beleggingssucces wordt vaak ten onrechte aan inzicht toegeschreven, CEO’s en coaches worden opgehemeld na successen en ontslagen na tegenvallende prestaties, terwijl zowel succes als falen in vele gevallen voor een groot deel het product zijn van onvoorspelbare externe factoren.
Tenslotte, kunnen we het niet laten om meer te zoeken achter extreme toevalligheden. Zulke toevalligheden doen zich niet enkel voor; meer zelfs, het is een statistische zekerheid dat ze zich geregeld eens zullen voordoen. De kans dat jij de lotto wint is miniem, maar de kans dat iemand de lotto wint is heel groot. Extreme toevalligheden komen voor: zo boorde een komeet zich een baan door het huis van de Franse familie ‘Comette’, bleek James Dean’s Porsche herhaaldelijk ongeluk te brengen (zoek het op!), werd een baby tweemaal gered door dezelfde man die telkens de val brak terwijl de baby uit het raam viel, en kwam een tweeling van 70 jaar oud om in een tijdspanne van twee uur in een auto-ongeval op dezelfde weg in Finland. We zijn geneigd daar meer achter te zoeken – ‘dat kan geen toeval zijn’ – maar dat is het uiteraard wel.
Als ‘oorzaakdorstige’ wezens kunnen we het ook niet laten een oorzaak te verzinnen voor een gebeurtenis als we geen kennis hebben van de werkelijke oorzaak. Voor hier wetenschappelijk onderbouwde theorieën van bestonden, zag men kometen en zonsverduisteringen vaak als tekens van de toorn van de goden. Kortom, we zijn overijverig in het maken van oorzakelijke verbanden: we zien er teveel, en als we de ware oorzaak niet kunnen achterhalen, dan vinden verzinnen we maar wat.
Verder misinterpreteren we ook vaak oorzakelijke verbanden. Een veelvoorkomende denkfout is dat we de kans dat A als B verwarren met de kans dat B als A. We denken bijvoorbeeld al snel dat iemand boos op ons is wanneer zij een email of telefoonoproep niet beantwoordt. Maar de waarschijnlijkheid dat die persoon haar telefoon niet zou opnemen wanneer ze boos op ons is, heeft niets te maken met de waarschijnlijkheid dat die persoon boos op ons is gegeven dat ze de telefoon niet opneemt. Heel veel andere oorzaken zijn mogelijk: ze is de telefoon ergens vergeten, is druk bezig, enzovoort. Toch zijn we er al snel toe geneigd om hier meer achter te zoeken. Dat soort oorzakelijke denkfouten spelen een belangrijke rol in samenzwerings- of complottheorieën. Deze theorieën zijn bijzonder interessant omdat ze gevoed worden door een hele waslijst aan cognitieve illusies.
Samenzweringstheorieën – zoals de theorie dat de maanlanding in 1969 nooit plaatsvond, dat de voormalige Amerikaanse president Kennedy en de Britse prinses Diana in opdracht vermoord werden, dat de voormalige president Bush achter de terroristische aanvallen van 9/11 zat, of dat covid vaccins microchips bevatten om de bevolking onder constant toezicht te houden – bieden verklaringen die, op zijn zachtst uitgedrukt, sterk afwijken van de officiële verklaringen. De officiële verklaring wordt vanuit het perspectief van degene die zo’n theorie aanhangt als een ‘dekmantel’ gezien, opgezet door de schuldige partij. Samenzweringstheorieën ontstaan vaak vanuit een foutieve achterafredenering. Omdat, bijvoorbeeld, de terroristische aanslagen op 9/11 de publieke steun voor de Bush regering verhoogde en – tot op zekere hoogte – Bush in staat stelde om Irak binnen te vallen in 2003, besluiten sommigen dat de Bush regering de aanslagen liet uitvoeren. Maar het is uiteraard niet omdat 9/11 politiek gerecupereerd werd, dat het ook politiek geënsceneerd werd (Boudry, 2016). Het is niet omdat een gebeurtenis iemand goed uitkomt, dat die persoon die gebeurtenis ook werkelijke veroorzaakt heeft.
Samenzweringstheorieën worden niet enkel gevoed door oorzakelijke denkfouten. Bij hun ontwikkeling komt een hele reeks redeneerfouten kijken. Eerst en vooral is de confirmation bias uiteraard aan het werk. Complotdenkers focussen uitsluitend op datgene wat hun stelling(en) kracht bijzet (bijvoorbeeld één ooggetuige die iets merkwaardigs heeft gezien) en omringen zich voornamelijk door gelijkgestemde denkers (in de Verenigde Staten worden er grote bijeenkomsten georganiseerd door de de zogenaamde ‘9/11 Truth movement’). Dat laatste zadelt de complotdenkers dan weer op met een ingroup – outgroup bias. Gelijkgestemden behoren tot de ingroup, en alle argumenten die zij naar voor brengen worden onkritisch aanvaard. Andersgestemden, daarentegen, behoren tot de outgroup en worden er soms zelfs van beticht deel uit te maken van het complot.
Op deze manier beschermen complotdenkers hun theorie tegen kritiek. Harde kritiek is namelijk te verwachten omdat de tegenpartij uiteraard ten alle koste de waarheid (die de complotdenkers menen ontdekt te hebben) wil onderdrukken. Sterker nog, harde kritiek wordt vaak geïnterpreteerd als teken dat men op het goede spoor zit! Daarmee beschikken samenzweringstheorieën over een ingebouwde immunisatiestrategie (een bescherming tegen weerlegging). Hoe meer men de aanhangers erop wijst dat de theorie geen steekhoudt, hoe meer ze denken op het goede spoor te zitten (Braeckman & Boudry, 2011). Dat beschermen van een theorie tegen kritiek is een belangrijk element in onkritisch denken. Zulke immunisatiestrategieën spelen ook een grote rol binnen de pseudowetenschappen. Dat bespreken we hieronder.
Maar samenzweringstheorieën zijn over het algemeen gemakkelijk te doorprikken met een gezonde dosis kritisch denken. Ze worden doorgaans immers steeds onwaarschijnlijker, naarmate de theorie evolueert. Dat komt omdat de theorie zich door haar stellingen in steeds meer bochten moet gaan wringen.
Neem de 9/11 samenzweringstheorie. Eén van de belangrijkste argumenten voor het vermeende 9/11 complot is dat de WTC-torens te snel en ‘gecontroleerd’ ineenstortten. Ze zijn volgens de complotdenkers met behulp van bommen in het gebouw tot instorten gebracht kort nadat de vliegtuigen zich een weg in de torens boorden. Deze bommen, beweren de complotdenkers, zijn daar geplaatst door de Bush regering. Maar deze stelling roept dan weer een hele reeks vragen op: wie heeft die bommen daar geplaatst? Wellicht niet Bush zelf. Dus een team dat zwijgplicht werd opgelegd. Hoeveel man is daarvoor nodig? Om zo een operatie uit te voeren moeten zeker enkele honderden mensen in het complot zitten. Hoe komt het dat niet één daarvan zich versproken heeft, mensen in New York heeft gewaarschuwd, of gewetensbezwaren had en het plan voor uitvoer ervan uit de doeken heeft gedaan om het te voorkomen? Zeer onwaarschijnlijk in een tijd waar gevoelige informatie steeds vaker openbaar wordt gemaakt door zogenaamde klokkenluiders.
Herinner u in deze context de tweede vuistregel van kritisch denken – Ockhams scheermes. De meest economische verklaring is vaak de beste. Een verklaring die steeds meer vragen oproept die op hun beurt ook een verklaring nodig hebben, boet aan waarschijnlijkheid in. De reden dat dergelijke complottheorieën toch overeind blijven staan is omdat ze – net zoals pseudowetenschappen – een interne, zelfkritische dynamiek missen.
Dat brengt ons bij de vraag wat wetenschappen van pseudowetenschappen onderscheidt. Deze vraag houdt filosofen al sinds de oudheid bezig. Aristoteles dacht dat wetenschappen over kennis over de ware oorzaken van verschijnselen beschikt en dat pseudowetenschappen enkel meningen naar voor schoven. Maar hoe kunnen we nu precies weten of we al dan niet met wetenschappelijke theorieën te maken hebben? Aristoteles’ criterium: ‘kennis over ware oorzaken’ lijkt enerzijds te sterk: goed wetenschappelijk onderzoek blijkt achteraf vaak (deels) fout of toch tenminste incompleet (denk bijvoorbeeld aan Newtons fysica). Anderzijds is het ook nutteloos, aangezien we slechts achteraf kunnen oordelen of een theorie de tand des tijds heeft doorstaan of fout is gebleken.
De bekende wetenschapsfilosoof Karl Popper (1963) stelde een ‘dermarcatie criterium’ voor dat tot op vandaag heel invloedrijk is. Volgens Popper is een theorie wetenschappelijk als en slechts als de theorie fout kan blijken én dat laatste empirisch aangetoond kan worden. Dat klinkt opmerkelijk; was het niet juist eigen aan een wetenschappelijke theorie dat deze juist is, of toch tenminste een grote kans maakt om juist te zijn? Popper keert onze intuïtie over gefundeerde kennis op haar kop. Het is niet zekerheid maar juist feilbaarheid die de wetenschappen tot wetenschap maakt. En daar is een goede reden voor.
Zoals we in het vorige hoofdstuk zagen is de confirmation bias de redeneerfout bij uitstek. We staan veel meer open voor bewijzen die onze theorie staven en zijn blind voor bewijs dat onze theorie of overtuiging ontkracht. Een goed denksysteem is daarom een systeem dat ons daartegen wapent. Vanuit een Popperiaanse visie op wetenschap, is het precies deze bescherming tegen de confirmation bias die de kern van het wetenschappelijk denken vormt.
Popper (1963) kwam tot dat besluit door na te denken over twee heel invloedrijke theorieën in de eerste helft van de 20ste eeuw. De eerste was Sigmund Freuds psychoanalyse, de tweede was Albert Einsteins relativiteitstheorie. Alle twee kwamen ze met een radicaal nieuw inzicht: Freud introduceerde het belang van het onderbewustzijn in de psychologie, en Einstein introduceerde de relativiteit van tijd en ruimte in de natuurkunde. Beide theorieën hadden ook een heel grote verklarende reikwijdte: Freud kon tal van aandoening verklaren als het gevolg van onderbewuste psychologische dynamieken en Einstein kon alles verklaren wat Newtons leer verklaarde en meer – met name ook de anomalieën voor Newtons systeem, zoals de baan van Mercurius rond de zon. Twee heel succesvolle theorieën dus.
Maar toch was er één cruciaal verschil volgens Popper. Freuds theorie kon niet ontkracht worden door de feiten, Einsteins theorie wel. Voor Freud was elke mogelijke menselijke gedraging immers verklaarbaar vanuit dezelfde principes. In de jaren ‘50 vroeg de wetenschapsfilosoof Sidney (Hook, 1959) aan een auditorium vol psychoanalisten welk gedrag een kind zou moeten vertonen opdat men zou besluiten dat het niet aan het Oedipuscomplex lijdt… de zaal bleef muisstil. Met andere woorden, geen enkele vorm van gedrag kon Freuds bekende theorie ontkrachten.
Einsteins theorie, daarentegen, maakte precieze voorspellingen die testbaar zijn. En het doorstond reeds een aantal testen. De astronoom, Arthur Eddington, observeerde bij een zonsverduistering dat sterrenlicht afgebogen werd door de massa van de zon, zoals Einstein voorspelde. Ook werd een atomische klok met hoge snelheid in een baan rond de aarde gebracht en liet daarbij een lichte vertekening van tijd opmeten ten opzicht van de tijd gemeten op aarde, zoals Einstein eveneens voorspelde. Nu nog steeds wordt Einsteins theorie getest, bijvoorbeeld in het CERN. Als zou blijken dat een deeltje in de versneller een grotere snelheid dan de snelheid van het licht bereikt, dan is Einsteins theorie weerlegd.
Daarin ligt het cruciale verschil tussen het bedrijven van wetenschappen en pseudowetenschappen. Wetenschappen stellen zich open voor weerlegging, pseudowetenschappen beschermen of immuniseren zich tegen weerlegging. Dat betekent uiteraard niet dat wetenschappers, in tegenstelling tot pseudowetenschappers niet vatbaar zijn voor de confirmation bias. Dat zijn ze uiteraard wel – dat zijn we allen – en goede wetenschappers zijn zich daarvan bewust. Zo laat Darwin de volgende quote optekenen: ‘Ook hanteerde ik vele jaren de volgende gouden regel: zodra mij een gepubliceerd feit, een nieuwe waarneming of gedachte te binnen schoot die mijn algemene resultaten tegensprak, maakte ik daar altijd direct een aantekening van. Ik wist namelijk uit ervaring dat dergelijke feiten en gedachten veel makkelijker uit het geheugen verdwijnen dan positieve.’ (Darwin, 1958).
Maar we kunnen niet van alle wetenschappers verwachten dat ze zoveel inzicht in hun eigen psychologie vertonen en zo diligent te werk gaan als Darwin. Gelukkig vangt de wetenschappelijke context en methodologie dit op. Door een cultuur te creëren van open discussie en kritiek op elkaars opvattingen kunnen de waarheid-vertekenende effecten van de confirmation bias aan banden gelegd worden. Meer zelfs, de confirmation bias is dan zelfs een troef. Zo gaat iedereen tot op het bot om zijn opvatting te verdedigen, de tegenargumenten en bewijzen komen wel van de collega’s die eveneens het onderste uit de kan proberen te halen om hun hypothese te staven (Boudry, 2016). Want aan motivatie om een theorie te weerleggen ontbreekt het wetenschappers niet. Degene die bijvoorbeeld Einsteins theorie weerlegt, gaat de geschiedenisboeken in.
Bij pseudowetenschappen is dat doorgaans niet het geval. Daar gaat men de discussie met sceptische collega’s over het algemeen niet aan. Theorieën worden niet kwetsbaar blootgesteld aan kritiek maar worden daar juist voor afgeschermd. Dat doen pseudowetenschappers met behulp van zogenaamde immunisatiestrategieën. Ten eerste, zwakken ze hun claims vaak af of geven er een nieuwe interpretatie aan wanneer er tegenbewijs komt. Ze zetten met andere woorden ‘moving targets’ of ‘bewegende doelwitten’ op. Een goed voorbeeld hiervan werd geobserveerd bij de religieuze gemeenschap ‘de getuigen van Jehova’. Ze voorspelden dat Christus in 1873 terug onder de mensen ging komen. Toen hij dat niet deed, argumenteerden ze dat hij wel degelijk was teruggekeerd, maar als onzichtbaar wezen.
Iets gelijkaardigs vinden we terug bij Freud. Volgens Freud waren neurotische aandoeningen het gevolg van een ‘opkropping’ van het libido. Toen bleek dat in de Eerste Wereldoorlog veel soldaten neuroses ontwikkelden door blootgesteld te zijn aan de oorlogsgruwelen (het ‘shellshock’ verschijnsel, tegenwoordig ‘post-traumatische stress stoornis’ genoemd), gaf Freud daar alsnog een uitleg aan door te argumenteren dat de oorlog de soldaten bedreigde in hun meest begeerde liefdesobject: hun eigen lichaam. Vandaar dat ze neuroses ontwikkelden. Zo bleef de libidotheorie overeind, maar werd deze wel radicaal geherinterpreteerd.
Een andere veel gebruikte techniek om een theorie te beschermen tegen weerlegging is om genoeg bewegingsruimte in te bouwen bij het vaststellen van de effecten. Chakrastimulatie bijvoorbeeld, populair in ‘new age’ kringen, bestaat erin om ‘chakra’s’ te reinigen van slechte energie en zo de patiënt te genezen van zijn kwalen. Als er niet meteen verbetering optreedt, kan de therapeut daar gemakkelijk een verklaring aan geven door bijvoorbeeld te zeggen dat de chakra’s dieper geblokkeerd zijn dan eerst gedacht. Gezien het fluctuerende verloop van de meeste ziektes (spontane genezing met andere woorden) komt er uiteindelijk meestal beterschap en daar krijgt de therapeut dan uiteraard alle krediet voor!
Dat brengt ons bij het domein waar de pseudowetenschappen het meest voorkomen en dat is de gezondheidszorg. Dit is niet toevallig. In deze context is er een samenloop van factoren die tot heel misleidende conclusies kan leiden. Drie factoren, met name, spelen hier een belangrijke rol. De eerste is, hoe kan het ook anders, de confirmation bias. De tweede, het placebo-effect. De derde factor, tenslotte, is het tijdsverloop van de meeste ziektebeelden of wat ik hierboven ‘regression to the mean’ heb genoemd. Dus het feit dat mensen spontaan genezen. De confirmation bias kennen we reeds. Het placebo-effect is de belangrijke positieve invloed dat het psychologische verwachtingspatroon van de patiënt heeft op het genezingsproces en het tijdsverloop van de meeste ziektebeelden (alle ziektes behalve chronische en terminale ziektes) zorgt ervoor dat patiënten spontaan genezen als er genoeg tijd overheen gaat.
Deze drie factoren zorgen ervoor dat ‘therapie ervaring’ – de persoonlijke ervaring die een therapeut heeft met een bepaalde behandeling – een bijzonder onbetrouwbare indicator is voor de werkzaamheid van die behandeling. De therapeut is immers in de greep van de confirmation bias en staat daardoor onbewust (veel) meer open voor ‘bewijs’ dat de werkzaamheid van de therapie bevestigt. Bovendien gelooft de patiënt uiteraard in de werkzaamheid van de therapie en is er dus een sterk placebo-effect. Het verloop van de tijd doet vervolgens de rest. Daarom hebben velen zo’n goede ervaring met homeopathie, accupunctuur en zelfs oorkaarsen-therapie én meent ook de therapeut vanuit eigen ervaring – veelal in eer en geweten – dat de therapie effectief is.
Om deze valkuilen te vermijden worden in de geneeskunde therapieën en medicatie op basis van ‘gerandomiseerde dubbelblinde proeven met controlegroep’ getest. Een controlegroep is een groep die een placebo krijgt toegediend om hen vervolgens te vergelijken met een groep die de therapie wel ondergaat en zo na te gaan of de behandeling of medicatie werkzaam is boven het louter placebo-effect. De toewijzing van patiënten in groepen (groep die de behandeling krijgt, en groep die een placebo krijgt) verloopt willekeurig om geen vertekenend effect te krijgen door een bepaalde (bewuste of onbewuste) selectie van patiënten (bijvoorbeeld door de meer ‘hoopvolle gevallen’ in de therapiegroep onder te brengen).
Tenslotte is het onderzoek ‘dubbelblind’. Hiermee wordt bedoeld dat niet enkel de patiënten niet weten of ze een placebo of echte medicatie / behandeling krijgen (uiteraard), maar dat ook de onderzoeker die de resultaten interpreteert dat niet weet. Dat laatste is cruciaal om de vertekenende effecten van de confirmation bias van de onderzoeker tegen te gaan. Anders is het waarschijnlijk dat de onderzoeker – die wellicht gelooft in de werkzaamheid van de therapie – de resultaten van de therapiegroep in een gunstiger licht interpreteert dan de resultaten van de controlegroep (placebogroep). Wanneer ‘alternatieve’ therapieën op zo’n manier getest worden, blijkt doorgaans dat ze geen effect hebben naast het placebo-effect.
Ook het argument dat een bepaalde therapie deel uitmaakt van een eeuwenoude traditie (denk aan allerlei vormen van alternatieve Chinese geneeskunde) en dat het daarom effectief moet zijn, klinkt misschien aannemelijk maar houdt geen steek. Het is niet omdat iets eeuwenlang wordt uitgevoerd dat het heilzaam is of – sterker nog – dat het niet schaadt. Denk hierbij aan aderlatingen. Deze therapie werd in het de Westerse wereld eeuwenlang toegepast, van de oude Grieken tot in de 19e eeuw. Men dacht allerlei aandoeningen te kunnen genezen door bloed af te tappen (en artsen vonden daar ook sterke aanwijzingen voor, misleid als ze waren door hun eigen therapie-ervaring die vertekend wordt door de confirmation bias, het placebo-effect en spontane genezing).
Het aftappen van (soms wel liters!) bloed is echter niet enkel volstrekt nutteloos voor het genezen van ziektes, maar is veelal zelfs schadelijk. Een verzwakt lichaam uitbloeden is niet bepaald de beste strategie om iemand te genezen. George Washington, de eerste president van de Verenigde Staten, is hier waarschijnlijk aan gestorven (en niet aan de ziekte waarvoor hij werd behandeld: een keelontsteking). Herinner je hoe we kritisch denken definieerden (in hoofdstuk 2) als rationeel en autonoom denken. Berusten op autoriteit of traditie leidt niet tot waarheid.
Dat brengt ons tot een volgend domein waar irrationaliteit welig tiert. Het domein van irrationaliteit bij uitstek, niet enkel door de flagrante irrationaliteit van sommige overtuigingen maar ook door de schaal waarop die overtuigingen verspreid worden. Dat domein is religie. Religie is een merkwaardig fenomeen. Het is enerzijds universeel (in alle menselijke groepen doorheen de geschiedenis vinden we aanwijzingen van religieuze overtuigingen terug) en anderzijds gaat er veelal een evolutionaire kost (met betrekking tot overleving en reproductie) mee gepaard. Die kosten gaan van economische kosten – zoals offers brengen aan de goden – over reproductieve kosten – bijvoorbeeld het opgelegde celibaat – tot zelfs levensbedreigende kosten bij extreme rituelen. Waarom zijn deze overtuigingen en de praktijken waar ze vorm aan geven dan toch zo wijdverspreid?
Onderzoek in de zogenaamde ‘cognitieve wetenschappen van religie’ legt een aantal psychologische factoren en redeneerfouten bloot die een belangrijke rol blijken te spelen in het ontstaan van religieuze denkbeelden. Een eerste belangrijke denkfout is de zogenaamde ‘hyper active agency detection’ (Barrett, 2000) waar we het in het vorige hoofdstuk over gehad hebben. We zijn geneigd om te snel het handelen van een agent te vermoeden achter gebeurtenissen. De link met religie is snel gelegd. Donder, bliksem, zonsverduisteringen, en andere opmerkelijke natuurfenomenen werden in alle pre-wetenschappelijke culturen als de handeling van één of meerdere bovennatuurlijke wezens (goden, geesten, etc.) gezien. Ook onze behoefte om overal oorzaken aan toe te schrijven, zelfs al hebben we geen bewijs voor zo’n oorzakelijk verband, speelt hier uiteraard een rol.
Verder zijn we opgezadeld met een intuïtief ‘dualisme’. We beschouwen het geestelijke of het bewustzijn als een volledig andere werkelijkheidsvorm dan (en strikt gescheiden van) het lichamelijke of het materiële. Dat komt omdat we specifieke en heel verschillende aangeboren intuïties hebben over de materiële wereld (‘folk physics’) en over het gedrag van anderen (‘folk psychology’). Deze twee soorten van intuïties stellen ons in staat om enerzijds onze fysieke of natuurlijke omgeving en anderzijds om onze sociale omgeving te navigeren.
Voor beide contexten gebruiken we heel verschillende principes. Onze ‘folk psychology’ is gebaseerd op ons vermogen om ons in te leven in het denken van de anderen. We schrijven intenties, gedachten en emoties toe aan anderen en verklaren (en voorspellen) zo hun gedrag. Dat doen we uiteraard niet voor het gedrag van fysieke objecten, daar zijn heel andere principes aan het werk. Het gevolg is dat we intuïtief het geestelijke radicaal van het materiële gaan scheiden (en we doen dit nog steeds, ondanks het feit dat de neurowetenschappen steeds nauwkeuriger het verband tussen fysische hersenprocessen en geestelijke activiteit vastleggen).
Vanuit zo’n sterk dualisme is het geen al te grote stap om enerzijds het geestelijke los te koppelen van het lichamelijke – en het bijvoorbeeld te hebben over een onsterfelijke ziel in een sterfelijk lichaam – en om anderzijds het bestaan van louter geestelijke (en dus immateriële) entiteiten te veronderstellen, zoals geesten en goden.
Tenslotte spelen ook andere redeneerfouten een rol in het vormen van religieuze denkbeelden. We blijken bijvoorbeeld een intuïtieve voorkeur te hebben voor ‘teleo-functionele’ of doelmatige verklaringen. Wanneer kinderen en niet wetenschappelijk onderwezen volwassenen de vraag voorgelegd krijgen waarom een bepaalde rots puntig is, dan verkiezen ze steevast antwoorden zoals ‘opdat dieren er niet op zouden gaan zitten’ boven antwoorden zoals ‘louter toevallig’ of ‘omdat de wind of de regen de rots zo gevormd hebben’ (Kelemen, 2003)(Casler & Kelemen, 2008). Vandaar is de stap dan ook snel gezet naar scheppingsverhalen. De wereld wordt gezien als de verwezenlijking van een goddelijk plan waarin alles is zoals het is voor een reden.
Eens die religieuze overtuigingen vorm krijgen verspreiden ze zich als een lopend vuurtje. Een belangrijke reden waarom we zulke irrationele overtuigingen gemakkelijk aan boord nemen is uiteraard de ingroup – outgroup bias. We krijgen die overtuigingen als kind met de paplepel toegediend door mensen uit onze dichte omgeving. Onze psychologie doet de rest. De ingroup – outgroup psychologie is er immers op ingesteld om overtuigingen van de eigen groep onkritisch over te nemen. Ook onze emotionele band met die overtuigingen speelt uiteraard een heel belangrijke rol en zorgt ervoor dat we deze bij tegenbewijs niet snel laten varen.
We dwalen echter niet enkel in hogere sferen, ook in de praktische beslommeringen van ons alledaags bestaan blijken onze biases ons met de regelmaat van de klok op het verkeerde been te zetten. Onderzoek van gedragseconomen of ‘behavioral economists’ levert, in deze context, een ontluisterend mensbeeld op. De klassieke economie gaat uit van de veronderstelling dat de economische actoren rationeel zijn. Zo’n perfect rationele economische actor noemt men ‘Homo economicus’. Deze heeft wel gedefinieerde voorkeuren en maximaliseert op rationele wijze haar ‘utiliteit’ (het nut of genot dat ze uit een consumptie of investering haalt).
In de praktijk is het gedrag van consumenten en investeerders echter ver verwijderd van dat rationele ideaalbeeld. Wat we bereid zijn te betalen voor een product is doorgaans het resultaat van ‘anchoring’ (zie vraagstuk 10 van hoofdstuk 2 en de appendix) en niet van een rationele berekening betreffende hoeveel utiliteit ons dat gaat opleveren (hierbij in acht nemend hoeveel utiliteit andere aankopen voor een gelijkaardige som ons zouden opleveren). Zo’n afweging is immers veel te ingewikkeld.
In de praktijk blijken we bereid redelijke of ‘schappelijke’ prijzen te betalen voor de producten die we willen hebben. Om de redelijkheid van die prijzen te bepalen doen we beroep op de gangbare prijzen in de markt. Bij nieuwe producten zijn er hiervoor aanvankelijk geen aangevingen en dan zijn consumenten verloren en vaak terughoudend (zelfs al willen ze het product echt). Hier spelen marketeers op in door meerdere gelijkaardige producten op de markt te brengen (zoals een deluxe versie, een ‘basic’ versie en iets wat er tussenin ligt). Dan geef je mensen een anker, en gaan ze op voorspelbare wijze het product tussenin aankopen. Dat gebeurde bijvoorbeeld toen de broodmachine voor het eerst op de markt kwam.
Een ander belangrijk fenomeen is ‘framing’ (zie vraagstuk 11 en in de appendix). Een heel mooi voorbeeld daarvan wordt beschreven door de gedragseconoom Dan Ariely (2008) in zijn boek ‘Predictably Irrational’. Het tijdschrift ‘The economist’ adverteerde de volgende promotie. Optie 1: 1 jaar abonnement op de onlineversie voor $65; Optie 2: 1 jaar print versie voor $125; Optie 3: 1 jaar online en print voor … $125! Waarom zou het tijdschrift die absurde optie 2 toevoegen? Wie verkiest nu enkel print (optie 2) boven print en online (optie 3) voor de dezelfde prijs? Ze kunnen optie 2 toch even goed weglaten?
Wel zo absurd bleek het niet te zijn, ontdekte Ariely. Wanneer mensen de 3 opties kregen, koos 84% voor optie 3, en 16% voor optie 1. Wanneer ze enkel optie 1 en 3 kregen, koos 32% voor optie 3 (print en online) en 68% voor optie 1 (enkel online). Door optie 2 en 3 naast elkaar te leggen, lijkt optie 3 plots veel aantrekkelijker: ‘ik krijg de online er gratis bij!’ Deze tweede optie toevoegen, die uiteraard niemand ooit kiest, verandert dus de voorkeur van de potentiële klanten op ingrijpende wijze en genereert zo (veel) meer inkomsten voor The Economist!
Verder is er nog een hele waslijst aan irrationele gedragingen vastgesteld door gedragseconomen. Denk aan de Allais paradox (vraagstuk 12), ‘loss aversion’ (zie appendix) en het ‘endowment effect’, het feit dat we meer waarde aan iets toekennen gewoon omdat we het bezitten (zie appendix). Ons gedrag blijkt heel ver te staan van het rationele gedrag waar de traditionele economie van uitgaat. En dat heeft belangrijke gevolgen. Net zoals onze irrationaliteit in andere domeinen ook belangrijke gevolgen heeft. Over deze gevolgen hebben we het in hoofdstuk 6. In het volgende hoofdstuk leren we hoe we ons kunnen wapenen tegen irrationaliteit.
Bijgeloof?
Hyperactieve patroon detectie, confirmation bias
Samenzweringstheorieën?
Oorzakelijke redeneerfouten, confirmation bias, ingroup - outgroup bias, gebrek aan zelfkritiek
Pseudowetenschappen?
Gebrek aan zelfkritiek, confirmation bias
Religie?
Hyperactive agency detection, intuïtief dualisme, voorkeur voor teleo-functionele verklaringen, ingroup - outgroup bias
Moving targets
Ingebouwde vaagheid
De confirmation bias van de genezer
Het placebo-effect op de patiënt
Natuurlijke genezing van de patiënt
Gerandomiseerde dubbelblinde proeven met controlegroep