To debunk, not to debunk, or prebunk?

01-04-2021

-

door verscheen in :
40 minuten
Leestijd:
Skeptici vragen zich wel eens af of het wel zo’n goed idee is om fake news te bestrijden. Zal er geen backfire effect optreden? Zullen mensen niet terecht komen in filterbubbels of echokamers? Halen ze niet alles uit de kast om de cognitieve dissonantie die zij ervaren te verminderen? Er zijn goede redenen om aan te nemen dat we ons minder zorgen hoeven te maken dan we soms vrezen.

Backfire effect1

Het backfire effect waarvoor the Debunking Handbook 2011 zo uitvoerig voor waarschuwde komt zelden voor. Actieve skeptici doen er volgens mij goed aan altijd zelf zoveel mogelijk bronnen en wetenschappelijke artikels te analyseren. Aan het eind van dit artikel overloop ik ook de technieken die volgens de huidige stand van het onderzoek het meeste kans op succes hebben.

In het winternummer van 2020 besprak Geerdt Magiels het boek Not born yesterday – the science of Who we trust and What we believe van cognitieve psycholoog Hugo Mercier uit 2020. Hij wijdde ook een paragraaf aan het korte maar bij skeptici blijkbaar populaire The debunking handbook 2020 van John Cook en Stephan Lewandowsky als hoofdauteurs. Naar dit boekje werd ook door SKEPP-ers veelvuldig verwezen, zij het nog steeds… de inmiddels bijna tien jaar oude versie uit 2011. In dit artikel geef ik mijn diepgaande analyse weer van beide versies, maar ook van het boek van Mercier. Ik refereer ook kort aan het boek Mistakes were made (but not by me) van Carol Tavris en Elliot Aronson, twee sociaalpsychologen. Dit met als doel te kijken wie de beste argumenten heeft die passen bij de data over de effecten van het bestrijden van misinformatie. In het inzetkader bespreek ik kort hoe ik mijn onderzoek voerde.

Een voor skeptici belangrijke tegenstrijdigheid viel mij bij het lezen op. Mercier stelt dat het backfire effect haast niet voorkomt, hoewel Tavris en Aronson er ook naar verwijzen. Tavris schreef me echter dat zij en Aronson de literatuur rond het backfire effect niet hebben onderzochten het louter citeerden. Zij stelt dat dit een vergissing is. The debunking handbook uit 2011 (een boekje dat eigenlijk maar 6 bladzijden telt) is voor de helft (3 bladzijden) gewijd aan waarschuwingen voor dit backfire effect. Het boekje rapporteerde 3 types backfire effecten (zie aparte inzetkader), maar Cook en Lewandowsky baseerden zich voor elk van die backfire effecten op telkens slechts één studie.

Eerder de uitzondering

Hugo Mercier schreef mij dat hij het eens was dat die versie van het boekje een beetje gedateerd is. Hij stelde dat Stephan Lewandowsky en Brendan Nyhan (die samen met Jason Reifler voor het eerst gewag maakten van het “backfire effect”) ondertussen het backfire effect eerder als de uitzondering dan de regel zien. Dit klopt, want in het Debunking Handbook 2020 nemen Lewandowsky en zijn collega’s elke uitspraak over de backfire effecten terug en lezen we zelfs (vertaling): “Hou je niet in om te debunken of misinformatie te corrigeren omdat je vreest dat er een backfire effect zou optreden of het geloof in valse informatie zal verhogen.”

Ook een voetnoot in een peer-reviewed artikel uit 2021 in de European Review of Social Psychology van Lewandowky en van der Linden bevestigt nogmaals dat ze het backfire effect minimaliseren:

“The ‘backfire’ effect reported by Nyhan and Reifler (2010) has been found to be less common than initially thought (Guess & Coppock, 2018; Wood & Porter, 2018). We are therefore reluctant to expect backfire effects generally; however, the exact replication of Nyhan and Reifler (2010) reported by Wood and Porter (2018) (their Figure 5) are visually identical to those reported by Nyhan and Reifler (2010). When corrections challenge worldviews, we should therefore still be sensitive to the possibility of a backfire effect even though we should not routinely expect it.”

Hoe komt het dan dat Lewandowsky en zijn collega Cook negen jaar eerder compleet het tegenovergestelde beweerden, en mogelijk duizenden skeptici in de wereld van verkeerd advies voorzagen? Voor mij is de grote boosdoener dat ze zich blijkbaar voor elk van de backfire effecten op slechts één studie baseerden. Bovendien waren deze studies van bedenkelijke methodologische kwaliteit. En wat zegt het over skeptici zelf dat ze dit zo gretig overnamen, vertaalden op tal van manieren en veelvuldig (bijv. via podcasts) verspreidden? En hoe komt het dat het Debunking Handbook uit 2011 soms nog verspreid wordt onder skeptici? Duidt dit erop dat sommige skeptici ook de fout maken om zelf hun bronnen niet grondig te onderzoeken? Duidt dit erop dat men handelt op basis van autoriteitsargumenten (de status van Lewandowsky en Cook) of gretig de adviezen van collega-skeptici overneemt als manier om zijn loyauteit aan het skeptische gedachtegoed en de skeptische groep te bewijzen (zie het boek van Mercier over de manieren waarop mensen hun groepsloyaliteit bewijzen)? In elk geval zaken om over na te denken. Ik stoor me soms aan de snelheid waarmee zaken gedeeld worden – daar kan geen grondige analyse aan voorafgegaan zijn, denk ik dan.

Debunken werkt

Het hiervoor geciteerde peer-reviewed artikel uit 2021 van Lewandowky en van derLinden2 bevestigt nogmaals dat zij ondertussen blijkbaar optimistischer zijn over de effecten van het debunken van misinformatie, op voorwaarde dat dit goed gebeurt. Ze stellen dat ‘gewoon informeren’ niet volstaat om misinformatie te neutraliseren. Er is meer kans op succes wanneer je (1) een alternatieve uitleg doet (dus niet zo maar “juist” of “fout”), of (2) wantrouwen zaait over de oorsprong van de misinformatie. Ook (3) inoculatie of prebunking zien zij als een valabele strategie. Deze strategie bestaat erin mensen te waarschuwen voor misinformatie vooraleer de misinformatie verspreid wordt. Net zoals Mercier betogen zij dat (3a) een waarschuwing voor een gevaar uitsturen belangrijk is omdat mensen gevoelig zijn voor bedreigingen. Zij stellen dat zo’n waarschuwing onmiddellijk dient te worden gevolgd door (3b) een preventieve weerlegging (refutational preemption of prebunking dus). Zij verwijzen naar een meta-analyse van Banas en Rains uit 2010 bij meer dan tienduizend mensen, waarbij een kleine effectmaat3 (d = 0.43) wordt opgetekend voor inoculatie-interventies. In hun conclusie vatten ze hun advies als volgt samen: (a) probeer vooraf aan inoculatie en prebunking te doen en als dat niet kan of niet lijkt te lukken, (b) reageer dan met weerlegging op het moment zelf of met factchecking en debunking.

En wat met hun advies omtrent de volgorde? Zij stellen namelijk voor om de juiste feiten te melden, dan pas de mythe(éénmalig) te vermelden, waarna de correctie van de mythe volgt. Ik mis de evidentie en stel vast dat de auteurs deze aanbeveling slechts op de 17de plaats zetten inzake belangrijkheid.4 Het gaat niet om een kwantitatieve meta-analyse of evaluatie van de evidentie, maar om een consensusdocument. Ik heb de drie artikels waarnaar verwezen wordt om hun advies te onderbouwen gedownload en geanalyseerd. Er wordt verwezen naar drie bronnen. Het eerste artikel uit 1994 (Hollyn Johnson & Colleen Seifert, voetnoot 1) beschrijft labo-experimenten (!) die met ‘undergraduate’ studenten (!) uit Michigan werden uitgevoerd. In experiment 1A namen slechts 32 studenten deel, die dan nog eens verdeeld werden in drie groepen. In experiment 1B zaten 33 studenten, eveneens verdeeld over drie groepen. In deze experimenten werd enkel nagegaan wat het effect was van een correctie onmiddellijk na, en met uitstel (nadat ze 10 minuten aan een andere taak werkten). In experiment 2 zaten 61 studenten verdeeld over 4 groepen. Hier werd nagegaan of het louter aanbieden van misinformatie een blijvend effect zou hebben. Uit dit experiment concludeerden de auteurs dat dit niet het geval was, maar dat misinformatie die werd aangeboden in een causale structuur beter blijft hangen (een soort als… dan… structuur). Bij experimenten 3A (81 studenten) en 3B (40 studenten) werden de studenten in drie groepen verdeeld en ging men na of het belangrijk was om in de correctie causale gevolgtrekkingen op te nemen. Hoeveel van de studenten telkens in de controlegroep zaten, werd nergens in de studie vermeld. Blijft de vaststelling dat elk experiment behoorlijk ‘underpowered’ was zoals ik hiervoor al beschreef. De duurtijd van de experimenten varieerde van slechts 15 minuten (3B) tot 45 minuten. In de eerste drie experimenten moesten de studenten een fictief scenario over een brand lezen en kregen ze 13 stellingen voorgeschoteld. Dat is vermoedelijk al veel meer dan pakweg de foute stellingen die iemand in het echte leven over vaccinaties te horen krijgt. In experimenten 3A en 3B kregen ze respectievelijk 15 en 14 stellingen te verwerken. In experiment 3B gebruikte men niet het scenario van een brand in een opslagplaats maar van een politieondervraging. Niet alleen werden de experimenten dus in kunstmatige omstandigheden uitgevoerd, waarbij men zich kan afvragen wat er in het dagelijkse leven van overblijft (bijvoorbeeld bij misvattingen over vaccineren), op erg kleine aantallen studenten, op basis van een 15-tal stellingen over een fictief scenario (brand of politieondervraging) en ging het eigenlijk over een geheugenexperiment (het woord memory of memories komt 55 keer voor in het artikel). Uit deze experimenten trokken de twee auteurs de tentatieve conclusie dat het beter is niet simpelweg een stelling als fout te beoordelen, maar ook “alternatieve causale gevolgtrekkingen” aan te bieden. Er werd geen enkel experiment gedaan waarbij eerst de correcte feiten werden getoond, vervolgens de misvatting en de correctie er op. Deze kleine experimentele studies met studenten in een kunstmatige labo-omgeving bieden dus geen kwantitatieve onderbouwing voor hun advies.

Het volgende artikel (voetnoot 81) is er opnieuw een van Colleen Seifert (2002), maar dit artikel gaat niet over nieuw onderzoek, maar is een narratieve review van het onderzoek tot nu toe. Een groot deel van het artikel wordt gewijd aan het onderzoek dat zij in 1994 en 1999 met Johnson uitvoerde. Hier stelt Colleen Seifert dat een correctie succesvol kan zijn wanneer de misinformatie vervangen wordt door een correctie die een minstens even overtuigende causale verklaring biedt dan de misvatting. Ook uitleggen hoe en waarom het misverstand is ontstaan (bijvoorbeeld niet meer relevant, informatie niet van goede kwaliteit) ziet zij als een tweede mogelijkheid. Beide adviezen zijn opgenomen in the Debunking Handbook 2020.

Het volgend artikel waarnaar verwezen wordt (voetnoot 82) is een artikel waarvan Lewandowsky mede-auteur is. In hun voorbeschouwing baseren de auteurs zich wederom zwaar op de studie van Johnson & Seifert uit 1994. Opnieuw gaan ze er in de studie van uit dat het probleem van het ‘continued influence effect’ of ‘voortdurende invloed’ van de misvatting een geheugenprobleem is. Ze nemen de aanbevelingen van Seifert over, en doen er een derde aanbeveling bovenop, namelijk het verhogen van het wantrouwen tegenover de bron van de misvatting. In dit artikel beschrijven ze bovendien hun onderzoek naar een nieuwe strategie: mensen op voorhand expliciet waarschuwen voor potentieel misleidende informatie. Laat ons eens kijken naar het opzet van hun onderzoek. Aan experiment 1 namen 125 eerstejaarsstudenten deel, die werden opgedeeld in 5 groepen van 25, weerom underpowered dus. Opnieuw werd een fictief scenario gebruikt (een ongeval met een minibus) en werden 14 stellingen aangeboden die misinformatie bevatten. Deze studie repliceerde de bevinding van Johnson en Seifert uit 1994, namelijk dat het aanbieden van een plausibele alternatieve (causale) verklaring de studenten minder deed teruggrijpen naar de misinformatie. Ook het geven van een specifieke waarschuwing waarbij de studenten werden gewaarschuwd voor het ‘continued influence effect’ (CIE) bleek succesvol. Aan experiment 2 namen 92 psychologiestudenten deel, opnieuw hoofdzakelijk eerstejaars trouwens. Hetzelfde scenario werd gebruikt maar hier werd nagegaan of een specifieke waarschuwing samen met een alternatieve (juiste) verklaring gecombineerd een groter effect had. Dit bleek het geval te zijn. Geen enkele van de vorige studies kon echter het CIE volledig uitsluiten bij alle studenten. Opnieuw moeten we dus vaststellen dat op basis van één artikel met twee labo-experimenten Lewandowsky en collega’s besluiten dat een waarschuwing positieve effecten zal hebben. De goudenregel om niet op één studie te vertrouwen wordt hier opnieuw geschonden.

In elk geval bewijst geen enkele studie dus dat je moet starten met een feitelijk relaas vooraleer je de mythe aankaart (vergezeld van een waarschuwing en gevolgd door een uitgebreide correctie). Deze aanbeveling is dus blijkbaar ‘eminence-based’ (door gebruik te maken van de consensusmethode) in plaats van ‘evidence-based’. Wie moeten we nu geloven, hen of bijvoorbeeld Scott O Lilienfeld die aanbeveelt om de misconceptie als eerste te vermelden, en vervolgens te corrigeren en te verklaren?

De empirische evidentie overtuigt mij dus opnieuw (nog) niet. Ik mis bovendien ook een meta-theoretisch en zelfs midrange kader. Zij blijven hangen in mini-theoretische beschouwingen over de werking van het geheugen en de manier waarop misvattingen kunnen worden tegengegaan. Waarom mensen misvattingen geloven in de eerste plaats en zelfs blijven geloven ook al weten ze ondertussen dat het om een misvatting gaat, wordt nergens verklaard. Als je geen goede analyse hebt, is je remedie misschien de verkeerde.

Hugo Mercier verwijst naar een meta-analyse van Nathan Walter en Sheila Murphy, over de effecten van het corrigeren van misinformatie. Tot welke conclusies kwam deze meta-analyse? Corrigeren bleek minder succesvol bij politieke misinformatie dan bij medische informatie. Dit duidt er sterk op dat coalitiepsychologie hierbij een rol speelt. Men wil gewoon bepaalde informatie of correcties niet aanvaarden als het de loyauteit aan de eigen politieke partij ondermijnt. Het goede nieuws is dat het dus beter werkt voor medische berichten. In tegenstelling tot de nadruk die Lewandowsky en collega’s leggen op prebunking blijkt uit deze meta-analyse dat debunken achteraf grotere effecten heeft (r = .38) dan vooraf waarschuwen of inoculeren (r = .16)5. Het slechte nieuws is dat het effect van debunken in de ‘echte wereld’ gehalveerd werd (r = .22) ten opzichte van labo-experimenten (r =.46). Dit geeft meteen ook de zwakte van de bronnen geciteerd in The Debunking Handbook 2020 aan, want zoals eerder gemeld, waren bepaalde adviezen louter gebaseerd op labo-experimenten met studenten. Uit deze meta-analyse bleek eveneens dat corrigerende boodschappen geven die misvattingen combineren met alternatieve (juiste) verklaringen de meest efficiënte strategie is (r = .55). De betrouwbaarheid van de bron (r = .14) en fact-checking (r = .25) bleken veel minder effectief. De onderzoekers geven wel een belangrijke beperking van hun meta-analyse aan: de onderzoeken gebeurden haast uitsluitend in de Verenigde Staten. Of de conclusies ook gelden voor andere landen, en zeker niet-Westerse, is nog maar zeer de vraag. We kunnen dus voorlopig concluderen dat de sterkste strategie om misinformatie tegen te gaan het aanbieden van een grondige alternatieve uitleg voor de misvatting is (uiteraard de juiste informatie verschaffen).

Maar wat met de echokamers of filterbubbels?

Dit idee werd onder meer gepopulariseerd door de jurist Cas Sunstein, bekend van zijn boek over nudging, een techniek waar ik grote (ethische) bedenkingen bij heb. Mercier verwijst dit idee naar de prullenmand en baseert zich hiervoor op de review en onderzoek van Elizabeth Dubois en Grant Blank (2017). Uit hun review blijkt bijvoorbeeld dat Amerikanen de afgelopen decennia juist minder in plaats van meer politiek gepolariseerd raken. Ze leveren kritiek op de methodologische aanpak van studies die bewijzen leken te vinden voor de effecten van echokamers. Niet alleen hebben deze onderzoeken vaak maar het effect van één sociale mediaplatform bekeken, bovendien waren de gevonden bewijzen zwak en vaak tegenstrijdig. Zij gingen in hun onderzoek na of de mogelijkheid die mensen hebben om hun eigen nieuwsbronnen te selecteren (klassieke media zoals kranten en TV, maar ook sociale media zoals twitter of facebook) nu meer leidt tot het consumeren van beperkte info uit echokamers, dan wel tot consumeren van meer diverse informatie. Zij bestudeerden een willekeurig maar representatief staal van 2000 Britten. Mensen die interesse hadden in politiek, verzeilden niet vaak in een echokamer. Hoe groter de keuze om diverse media te raadplegen, hoe kleiner de kans dat mensen in een echokamer vast kwamen te zitten. In een divers medialandschap komen mensen vaker in contact met informatie waarmee ze het initieel oneens zijn, en gaan ze vaker actief meerdere bronnen checken. Enkel mensen die niet politiek geïnteresseerd waren in politiek en slechts één sociaal mediaplatform als bron gebruikten, liepen het risico om vast te raken in een echokamer. Maar dit ging om slechts 8% van de steekproef. Mercier zondigt hier in mijn ogen ook tegen het betrouwen op één studie, maar deze studie heeft wel de verdienste om eerst een grondige review te doen en methodologische fouten in eerdere studies te bespreken.

De metatheorie van Not born yesterday

Het grootste verschil met The Debunking Handbook is dat Mercier wel vaak beroep doet op meta-theorieën, bijvoorbeeld hoe wij ons als sociaal dier gaan rekenen tot bepaalde groepen (coalitiepsychologie), en welk effect dit heeft op onze overtuigingen. Onze loyauteit aan de ingroup staat blijkbaar het herzien van onze mening meer in de weg dan een falend geheugen.

Het betoog van Mercier sluit ook aan bij het betoog van Tavris en Aronson. Hun boek Mistakes were made (but not by me) is één langgerekt betoog dat mensen zelfrechtvaardiging (self-justification) gebruiken om hun cognitieve dissonantie te reduceren. In hoofdstuk 13 bevestigt Mercier dat wij spontaan ons gedrag rechtvaardigen, maar ook leren anticiperen wanneer we denken dat we ons gedrag of beslissingen later zullen moeten rechtvaardigen.

De essentie van zijn boek is dat een groot deel van de populatie niet van gisteren is en dat slechts een klein deel zich om allerlei redenen niet laat overtuigen over het feit dat wat ze geloven fout is. Dit kan dramatisch zijn voor die gevallen, denken we maar aan gevallen waarbij ouders hun kinderen niet laten vaccineren met het BMR vaccin (Bof-mazelen-rubella), maar het moet juist een aanmoediging zijn voor skeptici om te blijven informeren en te debunken.

Toch blijf ik op mijn honger zitten als het aankomt op remedies. Degene die Mercier aanreikt zijn er op gericht om zelf niet in de val te trappen. Wat ons interesseert is hoe we anderen kunnen helpen om niet in de val te trappen, en eventueel mensen uit de fabeltjesfuik te halen.

Midrange theoretische verklaringen

Agency en coalitiepsychologie zijn de twee belangrijkste midrange theoretische verklaringen die leiden tot een meer ultieme verklaring (overleving en reproductie). Zij verklaren waarom mensen aan cognitieve dissonantiereductie en zelfrechtvaardiging doen, en waarom bij sommige mensen debunken werkelijk geen zoden aan de dijk zet.

Ter herinnering, agency is een van de drie grote metamotieven of drijfveren die ons kenmerken als sociaal dier. Wij willen ons graag als ‘agent’ zien (vandaar ‘agency’) in een natuurlijke en sociale wereld. Agency laat ons toe om voor onszelf, onze nakomelingen en onze familie te zorgen, zet ons aan tot (interne) competitie om de sociale ladder te beklimmen en een voldoende groot stuk van de economische koek te krijgen. Tal van fenomenen die in de academische literatuur door (evolutie)biologen en psychologen beschreven staan vallen onder agency: onze behoefte aan autonomie, een positief zelfbeeld, durf, zich competent voelen, economisch welzijn, maar ook afgunst, hebzucht, zelfbedrog, bedrog, macht en narcisme zijn gerelateerd en te categoriseren onder agency. Agency zorgt ervoor dat we onze eigen belangen nastreven (ook al willen vele mensen dit niet toegeven).

Onze drang om bij een groep te horen is een tweede metamotief. Een effect ervan is dat we ons rekenen tot een groep (ingroup) maar ook afzetten tegenover andere groepen (outgroup). Coalitional Psychology is de term die de evolutiepsycholoog John Tooby prefereert boven terminologie zoals sociale identiteit, tribalisme, parochialisme, otherization, us-versus-them, ingroup/outgroup dynamics enzovoort, die men ook vaak in de literatuur tegenkomt. De redenen waarom wij ons graag bij coalities aansluiten is evident volgens Tooby: je bent sterker met meer, maar kan ook meer aan coördinatie bij taakverdeling doen. Je rekenen tot een coalitie versterkt bovendien de cohesie van die ingroup. Dat we ons sterk identificeren met allerlei groepen, zoals politieke, ideologische of levensbeschouwelijke is evident. Hij stelt net als Mercier dat groepsovertuigingen soms erg bizar zijn. Net zoals agency, zorgt onze coalitiepsychologie er ook voor dat we de groepsbelangen en dus ons eigen belang nastreven. Tooby wijst er op dat zelfs coalities die ogenschijnlijk het menselijk welzijn nastreven, soms overgaan tot de meeste extreme vorm van onderdrukking van andere groepen, wat volledig in tegenspraak is tot de vermeende waarden van de coalitie. Dit doet me denken aan uitspraken van bepaalde commentatoren over de hypocrisie van Europa in de migratieproblematiek. Hoe kan je jezelf als een baken van menselijkheid zien wanneer je migranten laat verdrinken stellen zij. Tooby stelt dat onze coalitiepsychologie ons ervan weerhoudt om onze overtuigingen te herzien. Immers, je riskeert je job, je vrienden en je gekoesterde sociale identiteit te verliezen wanneer je voorschriften van je eigen coalitie in vraag stelt.

Zelfrechtvaardiging en agency: De verfijning die Aronson aanbracht aan Festingers dissonantietheorie was dat mensen allerlei strategieën hebben, die ze vaak combineren om hun dissonantie-ongemak te verminderen, maar vooral als hun zelfbeeld (self-concept) in het gedrang kwam door het eigen gedrag. Vooral wanneer ze zich stom, immoreel of verward voelen, trachten mensen dit ongemak te reduceren. De manieren waarop ze dit doen zijn zowel direct als indirect. Directe strategieën zijn strategieën waarbij men bepaalde elementen van de eigen overtuigingen bijstelt, bijvoorbeeld het trivialiseren van hun gedrag, de eigen perceptie te verdraaien door bijvoorbeeld te stellen dat men onmogelijk de omstandigheden kon voorspellen (denk aan de verdediging van heel wat bankiers ten tijde van de financiële crisis in 2008). Indirecte strategieën daarentegen wijzigen geen elementen van de eigen overtuigingen. Voorbeelden van een indirecte strategie zijn het toeschrijven van het ervaren ongemak aan iets anders, of zichzelf herinneren aan andere waardevolle talenten of persoonlijkheidsaspecten. Uiteraard passen mensen soms ook hun eigen gedrag aan, zeker wanneer ze zichzelf hypocriet vinden.6 Deze strategieën van zelfrechtvaardiging passen perfect in ons metamotief of drive naar ‘agency’, net zoals zelfbedrog, zelfoverschatting, hebzucht, narcisme enz. allen gecorreleerd zijn aan agency.

Zelfrechtvaardiging en coalitiepsychologie

Op dat vlak zitten Lewandowsky en Mercier op dezelfde golflengte, ook al gebruiken ze niet de term coalitional psychology (die ik ook prefereer). Een artikel uit 2021 in de European Review of Social Psychology van Lewandowky en van der Linden citeert verschillende studies waaruit eigenlijk blijkt dat mensen vooral willen trouw blijven aan hun eigen coalitie of ingroup. Een eerste studie die zij citeren gaat over mensen die moesten aangeven of ze wisten dat bepaalde informatie over de massadestructiewapens in Irak fout was. Zelfs Amerikaanse deelnemers aan de studie wisten dat deze stelling nie tklopte. Toch bleven ze deze aanhangen uit loyauteit aan de eigen groep. De auteurs verwijzen nog naar drie andere studies waarbij foute uitspraken van Donald Trump worden gecorrigeerd.7 Zij stellen dat de correctie wel het gewenste effect had (dus mensen wisten dat het fout was) maar dat dit bij Trump supporters hun steun voor Trump niet ondermijnde. Die studies bewijzen dus niet dat foute informatie corrigeren niet werkt, integendeeldus. De studies tonen enkel aan dat het desondanks niets wijzigt aan de loyauteit naar de groep waarmee men zich identificeert. Dit is net wat Mercier stelt: mensen geloven bepaalde informatie niet omdat ze dom zijn, maar omdat ze zich daarmee loyaal tonen aan de coalitie of groep waartoe ze zich rekenen. Veel van de populaire misvattingen zijn louter reflectief, hebben dus “weinig nadelen en dienen eerder onze sociale doelen” (blz. 266). Toch stelt hij ook (blz. 246) dat we niet alleen gemaakt zijn om in coalitietermen te denken, maar dat we ook zoveel mogelijk correcte overtuigingen willen vormen en aanhouden, als was het alleen maar om niet zoals een gek over te komen. Ook Carol Tavris en Elliot Aronson beschrijven in hun boek Mistakes were made (but not by me) dat mensen zelfrechtvaardiging ook gebruiken om te geloven dat hun eigen coalitie (“cultuur, natie of religie”) superieur is aan alle anderen. Maar volgens Mercier ontstaat polarisatie tussen groepen niet omdat mensen bereid zijn om slechte zelfrechtvaardigingen te accepteren omdat deze hun vooroordeel bevestigen, maar omdat ze zoveel goede of ‘goed genoeg’ argumenten horen die ertoe leiden dat ze nog meer gaan geloven in hun overtuigingen (blz. 210). Mensen stelt hij, zullen ook niet aan zelfrechtvaardiging doen tegenover mensen die hun overtuiging niet delen.

Zelfrechtvaardiging, confirmatieneiging en dissonantiereductie

Een bepaalde vorm van zelfrechtvaardiging is motivated reasoning. Dit is de neiging om een argumentatie op te bouwen in de richting van de voor zichzelf (of de ingroup) gewenste conclusie. Zulke motivated reasoning dient een ander doel, namelijk het opbouwen en intact houden van reputatie, sociale status, lidmaatschap van de ingroup enz. The Skeptic’s Dictionary stelt dat motivated reasoning in feite de confirmatieneiging “to the next level” is. Motivated reasoning kan zowel gebruikt worden om onze individuele agency als onze coalitie-identiteit intact te houden. De meeste zelfrechtvaardigingen bevestigen al wat we eerder geloofden.

Welke strategieën zijn volgens mij nu het overwegen waard?

Vooraf inoculeren of prebunken waar mogelijk is een te overwegen piste, maar ik wil toch graag nog meer onafhankelijk onderzoek buiten het gebruikelijke kringetje zien. De hiervoor geciteerde meta-analyse van Walter en Murphy laat zien dat het minder sterke effecten heeft dan achteraf debunken. Bovendien is het niet altijd mogelijk te anticiperen op het type fake news, mythe of valse argumenten in de toekomst zullen gebruikt worden. Weinig sceptici zullen geloven in een glazen bol. Een (vermoedelijk) in het Deens parlement ontstane spreuk stelt dat het moeilijk is om voorspellingen te maken, zeker over de toekomst.

(Counterattitudinal) self-persuasion of zelfovertuiging is een techniek die men binnen diverse psychologische domeinen heeft ingezet. Daarbij genereren mensen zelf argumenten om hun overtuiging of gedrag te wijzigen, en dat werkt beter dan je te laten overtuigen door anderen die ‘tegenargumenteren’. Voorwaarde is wel dat mensen hier vrijwillig willen aan deelnemen. Dit kan je dus niet zomaar inzetten. Jammer genoeg is er nog geen systematische review of meta-analyse binnen één domein uitgevoerd. We moeten het dus hebben van de convergentie van de bewijzen in diverse onderzoeksdomeinen waarin deze techniek werdingezet.8 Ook waarom zelf-overtuiging werkt is nog niet voldoende onderzocht. Eén hypothese ter verklaring van de werkzaamheid is dat mensen meer houden van hun eigen argumenten.

Gedetailleerde debunking blijft nog altijd de grootste kans op succes bieden. Het moet dan wel op de juiste manier gebeuren, namelijk waarbij (1) de mythe wordt aangekondigd (bijvoorbeeld: Mythe: vaccineren veroorzaakt autisme), (2) een accurate en gedetailleerde uitleg wordt gegeven waarom de mythe vals is, (3) de juiste uitleg wordt gegeven, inclusief causaal verband, (4) verklaard wordt waarom de mythe ontstond, wordt uitgelegd(5) waarom mensen hierin geloven, en tenslotte (6) een drietal waarschuwingen worden gegeven. Dit laatste leg ik nog even uit. Van Mercier leren we dat de meeste valse berichten of complottheoriën die we oppikken ons waarschuwen voor gevaar. We kunnen op onze beurt mensen waarschuwen voor het feit dat typische complotdenkers en goeroe’s deze strategie van bangmakerij hanteren, omdat ze aanvoelen dat wij van nature gevoelig zijn voor waarschuwingen voor gevaar. We kunnen mensen er ook op wijzen dat hun behoefte om zich tot een bepaalde (gedachte)groep te rekenen, hun ratio kan bedriegen, omdat hun angst om uit de groep te worden gegooid groter is dan hun behoefte om de waarheid te kennen. Tenslotte kunnen we hen ook waarschuwen voor the continued influence effect, om hen alert te maken.

De ingrediënten die het Debunking Handbook 2020 voorstelt, lijken dus in grote lijnen wel in orde, maar toch serieus onvolledig. De volgorde (eerst de mythe of eerst de feiten) lijkt mij gelet op de huidige stand van het onderzoek van minder belang. Laat ons ook niet vergeten dat loutere fact-checking blijkens de hiervoor aangehaalde meta-analyse van Walter en Murphy niet volstaat en een erg klein effec theeft.

Het in vraag stellen van iemands reputatie als expert is een andere strategie die kan helpen en die zowel door Mercier als Lewandowsky en collega’s wordt aanbevolen. Maar dit houdt natuurlijk wel meer juridische risico’s in. Zelfs al word je onterecht aangeklaagd wegens laster en eerroof, het kost altijd veel stress, moeite en geld om je te verdedigen.

Lessen voor skeptici

Of skeptici nu arts, econoom of ingenieur zijn, we hebben de neiging af te gaan op ons buikgevoel of op (ik overdrijf) de eerste de beste publicatie met simpele vuistregels. Ik stel regelmatig vast dat skeptici ideeën en meningen uitwisselen zonder de psychologische literatuur terzake zelfs maar te raadplegen, laat staan grondig en kritisch te onderzoeken. Gelet op de langdurige problemen in het vakdomein psychologie is kritisch onderzoek zeker nodig. Ook skeptici doen er goed aan om trachten bij te blijven met de laatste stand van de meest betrouwbare psychologische wetenschap. Dan zouden ze merken dat het verspreiden van het gedateerde The debunking handbook 2011 toch niet zo een goed idee is, zeker als je vaststelt dat op 9 jaar tijd Cooke en Lewandowsky hun positie volledig hebben herzien. Zelfs de adviezen in de versie uit 2020 hebben op een aantal vlakken een magere onderbouwing. Ook al ben ik zelf ook behoorlijk kritisch ten aanzien psychologisch onderzoek, ik vind het toch verbazend en verontrustend hoe skeptici geen rekening houden met de diverse psychologische onderzoeken naar de beste manieren van bestrijden van valse informatie, mythes en pseudowetenschap. De belangrijkste les voor sommige skeptici is dus dat je altijd je bronnen moet checken en de referenties zelf moet lezen. Dit advies kreeg ik reeds van mijn mentor bij eerste boekje, Geerdt Magiels, waarvoor dank.

 

Patrick Vermeren is HR professional, schrijver, journalist en bestuurslid van SKEPP.

 

Bio van de auteurs

John Cook is research assistant professor aan de George Mason Universiteit in Australië en behaalde zijn master in fysica en nadien doctoraat in filosofie. Hij onderzoekt vooral klimaatontkenning. Hij heeft 7262 citaties en er is een verhoogd aantal citaties sinds 2019, wellicht toe te schrijven aan zijn publicaties over klimaatontkenning en het fake news rond COVID-19, dat uiteraard brandend actueel is.

Stephan Lewandowsky is eveneens een cognitief psycholoog en professor aan de University of Bristol. Hij houdt zich bezig met computational modeling van cognitie en specialiseerde in klimaatverandering, het publieke begrip daarvan en de heersende misverstanden. Lewandowsky is de meest geciteerde wetenschapper van de drie met 21.014 citaties volgens Google Scholar, waarbij we sinds 2018 een sterke verhoging zien, vermoedelijk om dezelfde redenen als bij Cook want hij publiceerde heel veel rond klimaatontkenning en COVID-19.

Hugo Mercier is een cognitieve psycholoog die werkt aan le Centre National de la Recherche Scientifique (in het interdisciplinair onderzoekscentrum Jean Nicod Institute) in Parijs. Hij maakt deel uit van de onderzoeksgroep Evolution and Social Cognition. Op Google Scholar zien we dat zijn artikels 7543 keer geciteerd werden en dat hij vooral veel meer citaties krijgt sinds 2018. In APA heeft hij reeds 64 peer-reviewed artikels als auteur of co-auteur.

Carol Tavris is een sociaal psycholoog die bij Amerikaanse skeptici geen onbekende is. Naast haar strijd tegen pseudowetenschap is zij ook een feministe die vrouwen en mannen noch als inferieur noch als superieur tegenover elkaar beschouwt. Zij bekleedt geen academische positie en in de database van de American Psychological Association vond ik slechts 7 peer-reviewed artikels (waarvan één boekbespreking en één commentaar) met haar als co-auteur. 4 artikels handelen over de vrouwelijke seksualiteit. Alle artikels werden bijzonder weinig geciteerd door andere wetenschappers (7 tot 94 keer).

Elliot Aronson is een professor emeritus sociale psychologie aan de University of California in Santa Cruz. Hij behaalde zijn doctoraat in 1959 onder het mentorschap van Leon Festinger, de man die het begrip cognitieve dissonantie op de kaart zette. Hij was ook onderzoeksassistent bij Abraham Maslow. Hij werkte op onderwerpen zoals de dissonantietheorie (die hij verder verfijnde), de jigsaw classroom (om racisme tussen kinderen te verminderen) en zelf-overtuiging (self-persuasion). Volgens Google Scholar heeft hij 57172 citaties, wat deels zijn leeftijd verraadt. Maar ook in APA is hij auteur of co-auteur van 63 peer-reviewed artikels.

 

De definities van de terminologie in dit artikel

Het backfire effect is de term gegeven aan het idee dat ‘correcties de misvattingen kunnen versterken in plaats van verminderen’. Dus als je probeert een mythe te ontkrachten, riskeer je om deze mythe eigenlijk nog te versterken in het geheugen van mensen. Ik was er de afgelopen maanden getuige van dat dit idee populair is onder skeptici, zeker in combinatie met het idee dat algoritmes die sociale media zoals Facebook of Twitter gebruiken, mensen alsmaar dieper in de fabeljesfuik9 duwen.

Cognitieve dissonantie reductie beschrijft het fenomeen waarbij mensen eerst emotioneel ongemak ervaren wanneer ze informatie krijgen die hun huidige overtuigingen uitdaagt of tegenspreekt, en dit ongemak vervolgens trachten weg te werken (reduceren) door tal van strategieën, bijvoorbeeld door rationaliseren, te redeneren om uit te komen bij de conclusie die men wil bereiken uit eigenbelang (‘motivated reasoning’) of andere defensiemechanismen. Sterk verwant hiermee is de confirmatieneiging of vooroordeelsbevestiging: mensen neigen naar het selecteren van informatie die hun overtuigingen of vooroordelen bevestigen, en het negeren van informatie die hun overtuiging tegenspreekt.

Debunking zou je het best kunnen definiëren als het (vakkundig)verwijzen van onzin naar de prullenmand, of meer academisch: het verspreiden van correctieve informatie als reactie op voorafgaande misinformatie.

Power en underpowered. Zeker in medisch en psychologisch onderzoek moet een studie een voldoende grote steekproef hebben (power) om onderzoeksvragen te beantwoorden. Elke groep deelnemers of ‘conditie’ of ‘cel’ (bijvoorbeeld de controlegroep) moet uit minstens 35 maar liever nog minstens 50 mensen bestaan om het risico om overschattingen van het effect (de effectmaat of effect size) te voorkomen. Underpowered studies betekent dat er in elke conditie te weinig deelnemers zaten. In zulke studies gaat men vaker grote effectmaten vinden, waardoor wetenschappers soms denken dat de studie niet underpowered is, maar dat is een redeneerfout. Er zijn manieren om op voorhand te berekenen hoeveel deelnemers je nodig hebt.10

Self-justification of zelfrechtvaardiging is het proces waarbij mensen hun gedrag trachten te justificeren, nadat ze cognitieve dissonantie ervaren of wanneer hun gedrag niet in lijn ligt met de eigen overtuigingen.

 

De methode

Een snelle analyse:

  • Controle van de status van de auteurs: aantal wetenschappelijke publicaties, reputatie van de magazines waarin gepubliceerd werd, citaties van andere wetenschappers en tenslotte aanbevelingen door andere wetenschappers. Deze eerste screening deed mij besluiten dat hoewel Mercier zowel als Tavris en Aronson de steun van meer hoog aangeschreven sociale wetenschappers genieten, we evenmin moeten twijfelen aan de betrouwbaarheid van Cook en Lewandowsky.
  • Controle van de kwaliteit van de aangehaalde referenties. Meta-analyses zijn de hoogste vorm van bewijs indien goed uitgevoerd. Zich beroepen op één studie is voorbarig, geen studies is uiteraard problematisch. In het Debunking Handbook 2011 in de literatuurlijst is geen enkele ‘review’ of ‘meta-analyse’ terug te vinden. Het ‘handboek’ uit 2020 is deze keer wel dubbel zo uitgebreid en bevat deze keer 108 referenties, waarvan vier meta-analyses. Deze keer gingen ze dus grondiger te werk.
  • Analyse van de gebruikte methoden. Mijn grootste kritiek op het Debunking Handbook 2011 is dat geen enkele meta-analyse werd opgenomen en dat hun waarschuwing voor de drie backfire-effecten telkens beruste op slechts één studie. Daarmee overtraden ze alvast de gouden regel dat je geen conclusies mag trekken op basis van slechts één studie, laat staan extrapoleren naar andere contexten. Het Debunking Handbook 2020 bevat dan wel meer referenties, maar we moeten niet vergeten dat het om een ‘consensusmethode’-aanpak onder de auteurs gaat. Ik zie weerom dat bepaalde adviezen gebaseerd zijn op slechts één studie.
  • Opzoeken en grondig lezen en analyseren van de belangrijkste referenties. Van Carol Tavris en Hugo Mercier kreeg ik na een e-mailuitwisseling de elektronische versie van hun referentielijsten, wat mijn opzoekingen in databases zoals Google Scholar, APA Psycnet enzovoort vergemakkelijkte.

Eén meta-analyse van Chan en collega’s wordt zowel in het boek van Mercier als in the Debunking Handbook versie 2020 geciteerd. Deze is echter problematisch. Mijn drie voornaamste kritieken zijn dat het uitsluitend om labo-experimenten gaat (waarvan we vaak weten dat de effecten zich in het echte leven niet voordoet), en dat 11 van de 56 opgenomen studies met zeer weinig deelnemers (eigenlijk te weinig, vaak onder de 50 deelnemers per groep) werden uitgevoerd, waardoor je snel een overschatting van effectmaten krijgt (zie Coyne et al., 2010; Gelman, 2018; Simmons et al., 2011).

In het Debunking Handbook 2020 verwijzen de auteurs ook naar een meta-analyse van John Banas en Stephen Rains uit 2010, verschenen in het voor mij onbekende tijdschrift Communication Monographs. Gelukkig zijn de meeste studies die geselecteerd werden voor deze meta-analyse wel studies met voldoende deelnemers (power). Helaas was een meerderheid van de studies experimenteel van aard (!), waren de deelnemers middelbare school – of eerstejaars universiteitsstudenten (!) en werd een klein effect (d = .43) gevonden bij studenten die werden ‘geïnoculeerd’ tegen aanvallen op hun attitude.

De referenties in het boek van Mercier (271 bladzijden inhoud is wel een groot contrast met the Debunking Handbook) zijn veel uitgebreider. Hij haalt net geen 750 bronnen aan. Ik raadpleegde de meta-analyse van Nathan Walter en Sheila Murphy, over de effecten van het corrigeren van misinformatie. Walter en Murphy erkennen dat experimentele studies met studenten vaak overschattingen van effectmaten laten zien tegenover de ‘echte wereld’. De sterkte van deze meta-analyse is dat er zowel 35 experimentele studies met studenten als 29 studies met niet-studenten werden opgenomen. Bovendien bevatten 27 studies informatie uit de echte wereld in plaats van kunstmatige scenario’s in een labo. Bij 15 van de 65 studies (onder meer die van Johnson & Seifert uit 1994 die ik al besprak) waren weinig deelnemers aan de studies (ik nam een vork van 40 tot 75) en is het jammer dat deze underpowered studies werden meegenomen. Toch zijn er dus 50 studies met voldoende deelnemers, vaak in de honderden. The Debunking Handbook verwijst overigens naar een andere meta-analyse met Nathan Walter als co-auteur.

In Mistakes were made (but not by me) van Tavris en Aronson staan veel minder referenties. Tavris benadrukt dat het boek geen academische review noch handbook is. Er zijn twee meta-analyses opgenomen, waarvan één handelt over de self-serving bias, de academische term voor wat zij self-justification of zelfrechtvaardiging noemen (Mezulis et al., 2004).

 

De drie achterhaalde backfire effecten

Hierna beschrijf ik de basis voor de drie backfire effecten die in het Debunking Handbook 2011 beschreven werden, en in de versie uit 2020 volledig geschrapt werden.

Een eerste backfire effect zou terug te voeren zijn op het herhalingseffect (familiarity backfire effect): het loutere feit alleen al dat je de mythe herhaalt om ze te moeten weerleggen. Deze paragraaf lijkt zich te baseren op één studie waarbij een folder mythes over griepvaccins trachtte te weerleggen (Skurnik et al.,2005). De studie is te downloaden via Google Scholar. Tot mijn verbazing gaat deze studie echter helemaal niet over vaccins. Het volstaat om te kijken naar de sectie ‘Method’ om te ontdekken dat in het eerste experiment 32 universiteitsstudenten en 32 oudere buurtbewoners meededen, wat dus echt over kleine aantallen gaat. Er werd niet gewerkt met een controlegroep. Bovendien werden “om ethische redenen” geen valse claims voorgelegd, maar 54 medische stellingen die “niet echt duidelijk vals of juist waren”. De mensen kregen de stelling te zien gedurende 5 seconden en nadien werd gedurende 1.5 milliseconden het woord ‘true’ of ‘false’ getoond. Aan het einde moest men antwoorden (zonder tijdslimiet) welke stelling juist of vals was. Wat dit met debunken te maken heeft, mag iemand mij toch eens uitleggen. Het lijkt meer op een geheugenspel. Deze procedure werd herhaald gedurende drie dagen en de oudere deelnemers gaven duidelijk meer aan dat valse stellingen in hun ogen juist waren. Dit deed de onderzoekers besluiten dat er duidelijk sprake was van een backfire effect. Nochtans geven ze in experiment 2 zelf aan dat het mogelijk om een slechter geheugen gaat bij de oudere deelnemers. In experiment 2 werd bij een deel van de deelnemers pas bij de derde keer dat deelnemers een claim te zien kregen, gemeld of deze claim juist of fout was. Bij de andere groep kregen ze de informatie elke keer te zien. Hieraan namen 51 jongvolwassenen tussen 18 en 27 deel, en 31 buurtbewoners tussen 66 en 81 jaar oud. Opnieuw maakten oudere volwassenen meer fouten. Maar mensen die driemaal hadden gezien dat een stelling fout was, maakten minder fouten. Dan kan men toch alvast niet beweren dat herhaling tot meer backfire effecten leidt. Toch concludeerden de onderzoekers op basis van deze twee experimenten dat herhaling wel leidde tot meer familiariteit met het onderwerp, maar dat oudere deelnemers (66 tot 81 jaar in het tweede experiment) wel slechter waren in het onthouden of een stelling juist of fout was. Zij concludeerden dat het classificeren van stellingen als fout mogelijk alleen bij oudere mensen tot problemen leidt. Kan best zijn, maar in Vlaanderen zien we bij een veel groter ‘live experiment’ alvast dat oudere volwassenen zich massaal lieten vaccineren (meer dan 90%) en zich dus toch niet lieten beïnvloeden door vals vaccinnieuws, al kan het natuurlijk zijn dat deze mensen zich meer door reguliere dan door sociale media laten informeren. Bijzonder aan dit artikel is dat de auteurs geen opsomming maken van de mogelijke limitaties van hun onderzoek. De beperkte aantallen, het ontbreken van een controlegroep, het simpele labelen van een stelling als ‘fout’ of ‘juist’ zonder enige toelichting enz. zijn allemaal bedenkelijk. Ergerlijk vind ik dat the debunking handbook 2011 verkeerdelijk rapporteert dat het over een studie over vaccinatieclaims gaat. Nog ergerlijker is dat Lewandowsky en Cook op basis van deze ene studie besluiten dat er een ‘familiarity backfire’ effect kan optreden en dat je vooral de juiste feiten zou moeten benadrukken. Daarmee overtraden ze alvast de gouden regel dat je op basis van slechts één studie geen conclusies mag trekken of extrapoleren. Gelukkig publiceerden ze 9 jaar later een correctie.

Een tweede backfire effect beschreven ze als het overkill backfire effect, waarbij het probleem zou zijn dat als je te veel argumenten geeft (bijvoorbeeld 12) dit slechter is dan weinig (bijvoorbeeld 3) omdat het laatste gemakkelijker te onthouden zou zijn. Voor deze stelling wordt verwezen naar één artikel van Schwarz et al. uit 2007. Ook dit artikel viel eenvoudig te downloaden via Google Scholar. Ik vermoed echter dat ze hun referenties omwisselden, want in dit artikel staat een afbeelding van een folder over griepvaccinatie. Drie van de vier auteurs uit de studie in de vorige paragraaf zijn blijkbaar ook medeauteurs van dit artikel (Schwarz, Yoon en Ksurnik). Het artikel is een ‘narratieve review’ waarbij geen kwantitatieve (cijfermatige) meta-analyse wordt uitgevoerd. Opnieuw werd dus dezelfde fout gemaakt (één artikel als basis nemen) en we hebben geen idee of Cook en Lewandowsky de referenties van Schwarz et al. zelf zijn nagegaan.

In de 2020 versie verwijzen Lewandowsky, Cook et al. het overkill backfire effect naar de prullenmand. Nu verwijzen ze echter opnieuw naar … slechts één studie (Ecker et al., 2019) waarvan Lewandowsky medeauteur is. Dus één narratieve review moet nu plaats maken voor één studie. Opnieuw wordt de gouden regel dat je niet op één studie mag vertrouwen, hiermee overtreden. Deze studie betrof een experimentele studie met 3 experimenten, met respectievelijk 64 Australische universiteitsstudenten van gemiddeld 21 jaar oud, 56 Australische universiteitsstudenten van gemiddeld 19 jaar oud en 541 Amerikaanse deelnemers van gemiddeld 40 jaar oud. Men stelt dat er wordt gewerkt met een controleconditie waarin geen tegenargumenten werden gebruikt. Maar het artikel laat niet toe te achterhalen hoeveel mensen in de controlegroep zaten, of dat er wel een aparte controlegroep was (misschien is de controleconditie gecreëerd bij alle individuen door hun andere stellingen voor te schotelen). Op basis van die ene studie zouden we, heel misschien, heel voorwaardelijk, heel voorzichtig… kunnen concluderen dat het misschien juist is dat meer argumenten geven… beter is dan weinig argumenten, en dat ‘sterke’ argumenten beter zijn dan ‘zwakke’. Of zou het labo-effect verdwijnen in de echte wereld, zoals zeer vaak het geval is met psychologische labo-experimenten? Ik zou er niet teveel geld op inzetten. De referentie naar dit artikel is trouwens verdwenen uit de referentielijst van het Debunking Handbook 2020.

Een derde backfire effect is het zogenaamde Worldview Backfire Effect. In 2011 wordt dit beschreven als potentieel het sterkste backfire effect omdat het te maken heeft met “onderwerpen die te maken hebben met hun wereldbeeld en culturele identiteit”. Het backfire effect zou in dit geval leiden tot meer polarisatie. In deze paragraaf wordt verwezen naar 3 studies. Maar eigenlijk geven deze studies al weer wat ik in het lentenummer 2020 van ons ledentijdschrift al schreef: het heeft te maken met coalitiepsychologie: mensen willen zich graag conformeren aan de groepsdruk en het groepsdenken (groupthink) om een geaccepteerd ingroup-lid te blijven. De artikels gebruiken dan wel andere terminologie (bijv. politieke partijdigheid, tribalisme…) maar het gaat fundamenteel over hetzelfde. Om hun eerdere bewering uit 2020 te ontkrachten, verwijzen Lewandowsky, Cook en collega’s nu naar 5 studies waarvan 4 studies handelen over politieke misinformatie. Het gaat om artikels geschreven door medeauteurs van de 2020 versie van het handboek en de mislukte replicatiepoging van Wood &Porter uit 2019, waarbij 29 van de 30 pogingen om het backfire effect te repliceren, faalden.

 

1. In A Skeptic’s HR Dictionary betoog ik reeds dat het backfireeffect niet problematisch is, waarbij ik op het gefaalde replicatieonderzoek van Thomas Wood en Ethan Porter wijs. Hier maak ik een veel grondiger analyse.

2. Een zoektocht in APA en Google Scholar leert mij dat Lewandowsky regelmatig samenwerkt met Sander van der linden en Jon Roozenbeek, een van de ontwikkelaars van ‘games’ zoals Bad News, Harmony Square en vooral Go Viral. Met dit laatste project proberen ze mensen te ‘inoculeren’ tegen misinformatie (fake news) over COVID-19. Een soort van psychologische vaccinatie tegen misinformatie dus. Één recent onderzoeksartikel onthulde echter dat het effect van Go Viral al na een week weg was (Basol et al., 2021).

3. Gangbare vertaling voor het Engelse effect size, uitgedrukt in Cohen’s d.

4. In hun tekst, in de tabel staat het op de 16de plaats.

5. Wat het ons niet gemakkelijker maakt, is dat de auteurs de effectmaten omzetten naar correlatieschattingen uitgedrukt in r.

6. Ik vond ondermeer een overzicht in Stone et al., 1997 (met Aronson als mede-auteur).

7. In de derde studie van Swire-Thompson et al. werden ook stellingen van Bernie Sanders gebruikt, alsook het effect op de steun voor hem als kandidaat.

8. In mijn boek A Skeptic’s HR Dictionary heb ik een overzicht van het empirisch onderzoek opgenomen.

9. Een term op 18 oktober 2020 gelanceerd door Arjen Lubach, Nederlandse gastheer van het programma “Zondag met Lubach”. Hij toonde daarin hoe hij al snel op filmpjes met complottheorieën stuitte als hij op zoek ging naar video’s over COVID-19.

10. Voor meer uitleg, zie bijvoorbeeld hier: https://onderzoeksvragen.ou.nl/index.php/2361/welke-eisen-moet-onderzoek-menselijke-deelnemers-voldoen

 

 

Bronnen

Aronson, E. (2012). Dissonance, Hypocrisy, and the Self-Concept. In: Aronson, J., & Aronson E. (editors). Readings about the Social Animal, Eleventh edition. VS: New York, Worth Publishers.

Chan, M. P. S., Jones, C. R., Hall Jamieson, K., & Albarracín, D. (2017). Debunking: A meta-analysis of the psychological efficacy of messages countering misinformation. Psychological science, 28(11), 1531-1546.

Cook, J., & Lewandowsky, S. (2011). The Debunking Handbook; University of Queensland: St. Lucia, Australia.

Coyne, J. C., Thombs, B. D., & Hagedoorn, M. (2010). Ain’t Necessarily So: Review and Critique of Recent Meta-Analyses of Behavioral Medicine Interventions in Health Psychology. Health Psychology,29(2), 107- 116.

Dubois, E., & Blank, G. (2018). The echo chamber is overstated: the moderating effect of political interest and diverse media. Information, communication & society, 21(5), 729-745.

Gelman, A. (2018). The failure of null hypothesis significance testing when studying incremental changes, and what to do about it. Personality and Social Psychology Bulletin, 44(1), 16-23.

Lewandowsky, S., Cook, J., Ecker, U. K. (2021). Under the Hood of The Debunking Handbook 2020: A consensus-based handbook of recommendations for correcting or preventing misinformation.

Lewandowsky, S., & Van Der Linden, S. (2021). Countering misinformation and fake news through inoculation and prebunking. European Review of Social Psychology, 1-38.

Lewandowsky, S., Cook, J., Ecker, U. K. H., Albarracín, D., Amazeen, M. A., Kendeou, P., Lombardi, D., Newman, E. J., Pennycook, G., Porter, E. Rand, D. G., Rapp, D. N., Reifler, J., Roozenbeek, J., Schmid, P., Seifert, C. M., Sinatra, G. M., Swire-Thompson, B., van der Linden, S., Vraga, E. K., Wood, T. J., Zaragoza, M. S. (2020). The Debunking Handbook 2020.

Mercier, H. (2020). Not born yesterday. The science of who we trust and What we believe. VS: New Jersey, Princeton University Press.

Mezulis, A. H., Abramson, L. Y., Hyde, J. S., & Hankin, B. L. (2004). Is there a universal positivity bias in attributions? A meta-analytic review of individual, developmental, and cultural differences in the self-serving attributional bias. Psychological bulletin, 130(5), 711.

Ecker, U. K., Lewandowsky, S., Jayawardana, K., & Mladenovic, A. (2019). Refutations of equivocal claims: No evidence for an ironic effect of counterargument number. Journal of Applied Research in Memory and Cognition, 8(1), 98-107.

Schwarz, N., Sanna, L. J., Skurnik, I., & Yoon, C. (2007). Metacognitive experiences and the intricacies of setting people straight: Implications for debiasing and public information campaigns. Advances in experimental social psychology, 39, 127-161.

Shermer, M. (1999, 2011). The Measure of a Woman, The Skeptic v7n1, 1999 en downloadbaar via https://www.skeptic.com/eskeptic/11-02-09/#-feature

Simmons, J. P., Nelson, L. D., & Simonsohn, U. (2011). False-positive psychology: Undisclosed flexibility in data collection and analysis allows presenting anything as significant. Psychological science, 22(11), 1359–1366.

Skurnik, I., Yoon, C., Park, D. C., & Schwarz, N. (2005). How warnings about false claims become recommendations. Journal of Consumer Research,31(4), 713-724.

Stone, J., Wiegand, A. W., Cooper, J., &Aronson, E. (1997). When exemplification fails: hypocrisy and the motive for self-integrity. Journal of personality and social psychology, 72(1), 54.

Tavris, C., & Aronson, E. (2020 – derde editie). Mistakes were made (but not by me). VS: Boston, Houghton Mifflin Harcourt.

Tooby, J. (2018). Coalitional Instincts. (Edge.org. antwoord op de vraag: Welke wetenschappelijke term of concept zou breder mogen bekend zijn).

Walter, N., & Murphy, S. T. (2018). How to unring the bell: A meta-analytic approach to correction of misinformation. Communication Monographs, 85(3),423-441.

 

Authors
Patrick Vermeren
Publicatiedatum
01-04-2021
Opgenomen in
Skeptisch & kritisch denken