Longread

Gingen overheid en social media te ver bij bestrijden desinfo tijdens Covid-pandemie?

09-01-2024 13:34

Fake News Nepnieuws
Shutterstock.

(Sara Talpos, Undark, 8 januari 2024) – In maart 2021, vroeg een Twitter-gebruiker aan Martin Kulldorff of iedereen moest worden ingeënt tegen Covid-19. Kulldorff, toen een professor aan de Harvard Medical School, had 20 jaar onderzoek gedaan naar infectieziekten en bijgedragen aan de ontwikkeling van het landelijke systeem voor toezicht op de veiligheid van vaccins.

“Nee,” antwoordde hij. De vaccins waren belangrijk voor sommige mensen met een hoog risico, schreef hij, maar “mensen met een eerdere natuurlijke infectie hebben het niet nodig. Kinderen ook niet.”

Dat advies plaatste Kulldorf buiten de mainstream in zijn vakgebied en hij kreeg al snel te maken met de gevolgen van Twitter. Het sociale netwerk bestempelde de tweet als ‘misleidend’ en plaatste een link die gebruikers de mogelijkheid bood om “te leren waarom gezondheidsambtenaren een vaccin aanbevelen voor de meeste mensen”. Twitter beperkte ook de mogelijkheid van de post om geretweet en geliked te worden, zei Kulldorff in een recent interview.

De ervaring maakte hem bang. Zijn account was al een keer geschorst, zei hij, en hij wilde geen permanent verbod riskeren. “Ik moest mezelf censureren,” zei Kulldorff. “Ik heb niet alles gezegd wat ik had willen zeggen.”

Nauwelijks bewijs voor nut nepnieuwsbestrijding tijdens Covid-pandemie

Hij was verre van de enige. In de loop van de pandemie verwijderden grote sociale mediabedrijven duizenden accounts en miljoenen berichten die verklaringen over Covid-19 bevatten die als onjuist of misleidend waren gemarkeerd. Deze maatregelen maakten deel uit van een ongekende inspanning tijdens de pandemie om de verspreiding van desinformatie over gezondheid te beperken in een tijd waarin het internet overspoeld werd met dubieuze beweringen over wonderbaarlijke behandelingen, ziekteverwekkende 5G-netwerken en vaccins met microchips.

De vraag die sommige deskundigen op het gebied van de volksgezondheid zich nu stellen is of deze inspanningen gebruikers uiteindelijk gezonder en veiliger hebben gemaakt. Sommige studies suggereren dat blootstelling aan verkeerde informatie over gezondheid gevolgen kan hebben in het echte leven, zoals dat sommige mensen minder geneigd zijn om een vaccin tegen Covid-19 te nemen. En verschillende deskundigen op het gebied van volksgezondheid vertelden Undark dat het heel redelijk is dat techbedrijven duidelijk onjuiste gezondheidsclaims verwijderen of benadrukken.

Maar er is nauwelijks bewijs dat dit beleid daadwerkelijk de vaccinatiegraad heeft verhoogd of schadelijk gedrag heeft voorkomen. Sterker nog, vroegere onderzoeken waarin specifiek beleid voor onjuiste informatie over vaccins werd geanalyseerd, ontdekten dat dergelijk beleid weinig bijdroeg aan het verminderen van de algehele betrokkenheid van gebruikers bij anti-vaccin inhoud.

Bovendien zijn sommige onderzoekers op het gebied van de volksgezondheid bezorgd dat berichten van mensen zoals Kulldorff – een expert met geïnformeerde maar heterodoxe standpunten – verstrikt raakten in een sleepnet dat legitiem debat in de kiem smoorde op een moment dat de wetenschap nog onzeker was.

Illegale overheidsdwang

Deze en andere incidenten van content moderatie maken nu deel uit van een uitgebreide First Amendment rechtszaak waarin wordt beweerd dat verschillende federale instanties sociale mediabedrijven dwingen om onwelgevallige content van hun platforms te verwijderen. Kulldorf is een van de verschillende aanklagers.

Of de overheid de grens heeft overschreden van legale overreding naar illegale dwang zal de rechter moeten beslissen. Maar wat de uitkomst van die zaak ook is, de gemeenschappen die onderzoek doen naar volksgezondheid en onjuiste informatie zullen zelf met fundamentele vragen blijven zitten.

De belangrijkste vraag is of, midden in een pandemische noodsituatie, de inspanningen om desinformatie te controleren het bewijsmateriaal te buiten zijn gegaan. En zo ja, hadden deze overijverige inspanningen dan negatieve effecten, zoals het dempen van nuttige wetenschappelijke meningsverschillen, het uithollen van het vertrouwen van het publiek of het belemmeren van de vrijheid van meningsuiting?

Onderzoekers zeggen ook dat er meer bewijs nodig is om te bepalen of pogingen om online gezondheidsmisinformatie in te dammen het gewenste effect hebben op het gedrag van het publiek, ervan uitgaande dat er zelfs een consensusdefinitie voor ‘misinformatie’ kan worden gevonden. Tot nu toe, zeggen ze, is er weinig overeenstemming over de beste manier om deze vragen te bestuderen en het bewijs dat tot nu toe verzameld is, geeft een nogal gemengd beeld.

“Het is nog een heel jong veld,” zegt Claire Wardle, een expert op het gebied van desinformatie aan de Brown University School of Public Health. Achteraf gezien heeft “niet iedereen alles goed gedaan”, zegt ze. “Maar je kunt niet ontkennen dat heel veel mensen heel veel uren wanhopig hebben geprobeerd om erachter te komen wat het juiste was om te doen.”

Agressiever moderatiebeleid

De discussie over hoe onjuiste informatie in de media moet worden aangepakt gaat tientallen jaren terug, maar gedurende het grootste deel van het internettijdperk had het modereren van online inhoud weinig te maken met de volksgezondheid. Wanneer socialemediabedrijven berichten verwijderden, richtten ze zich meestal op het verwijderen van buitensporig gewelddadig of verontrustend materiaal.

Dat begon te veranderen na de Amerikaanse verkiezingen in 2016, toen een organisatie die banden had met de Russische overheid gebruik maakte van sociale media om zich voor te doen als Amerikaanse burgers. Leiders van Facebook, Google en Twitter werden voor een congrescommissie geroepen en ondervraagd over de rol van hun bedrijven in het mogelijk maken van buitenlandse verkiezingsinmenging. De grote sociale mediaplatforms namen vervolgens een agressiever beleid aan voor het modereren van verkiezingsgerelateerde inhoud.

In 2019 maakten volksgezondheidsfunctionarissen zich ook zorgen over informatie die online circuleert. Na een reeks uitbraken van mazelen gaven de Centers for Disease Control and Prevention verkeerde informatie de schuld van de lage vaccinatiegraad in kwetsbare gemeenschappen.

Technologiebedrijven begonnen actie te ondernemen: Facebook verminderde de zichtbaarheid van anti-vaccin pagina’s, naast andere veranderingen. De zoekmachine van Twitter begon zoekopdrachten over vaccins door te sturen naar volksgezondheidsorganisaties.

Antivaxx-websites

Op het eerste gezicht lijkt het voor de hand te liggen dat blootstelling aan een stortvloed van berichten op sociale media waarin bijvoorbeeld wordt beweerd dat vaccins heimelijke microchips bevatten, sommige mensen doet aarzelen voordat ze een prik halen. Onderzoekers die met Undark spraken, wezen op een paar gerandomiseerde gecontroleerde onderzoeken, of RCT’s, die wijzen op het potentieel van verkeerde informatie om gedrag in de echte wereld te beïnvloeden.

In één studie, gepubliceerd in 2010, wezen Duitse onderzoekers willekeurig personen toe om een vaccin-kritische website, een controlewebsite of beide te bezoeken. Slechts 5 tot 10 minuten doorbrengen op een vaccin-kritische website verminderde de kortetermijnintentie van deelnemers aan de studie om te vaccineren.

Meer recentelijk, in 2020, wees een team van onderzoekers uit Londen willekeurig meer dan 8000 deelnemers aan het onderzoek toe om ofwel onjuiste informatie ofwel feitelijke inhoud over Covid-19-vaccins te bekijken. De groep die de verkeerde informatie te zien kreeg, ondervond een daling van ongeveer 6 procentpunten in het aantal deelnemers dat zei dat ze “zeker” een vaccin zouden accepteren.

Andere methodologieën

Niet alle onderzoeken laten echter een dergelijk duidelijk verband zien. In juni en juli van 2021 ontdekte een team van Ierse onderzoekers dat blootstelling aan anti-vaccinininhoud weinig effect had op de intentie van deelnemers aan de studie om een Covid-19-injectie te krijgen. Misschien contra-intuïtief, toonden de studiegroepen blootgesteld aan verkeerde informatie een lichte stijging in hun intentie om te vaccineren. De auteurs concludeerden dat verkeerde informatie waarschijnlijk wel van invloed is op gedrag, maar dat de invloed “niet zo duidelijk is als vaak wordt aangenomen”.

“RCT’s zijn belangrijk”, zei Wardle. Hun studieopzet stelt onderzoekers in staat om een enkele variabele te isoleren, zoals blootstelling aan anti-vaccin-inhoud, en vervolgens het effect ervan te analyseren. “Maar,” voegde ze eraan toe, “deze experimenten geven slechts een gedeeltelijk beeld”.

Geen van de drie vaccinstudies vroeg deelnemers bijvoorbeeld om hun vaccinatiegegevens te delen. Zonder deze gegevens is het onduidelijk of veranderingen in antwoorden op enquêtes veranderingen in vaccinatiegraad accuraat voorspelden. Bovendien kan het zijn dat RCT’s de talloze manieren waarop online desinformatie zich verspreidt niet volledig in kaart brengen, aldus Wardle. Iemand kan online verkeerde informatie van de hand wijzen. Maar als ze het weer tegenkomen – bijvoorbeeld op een familiebijeenkomst – kunnen ze geneigd zijn het als waarheid aan te nemen.

“Ik denk dat het belangrijk is dat we RCT’s hebben, maar het is ook belangrijk dat we een hele reeks andere methodologieën hebben om de relatie tussen verkeerde informatie en menselijk gedrag te begrijpen”, aldus Wardle.

Geen wondermiddel

Zelfs als onjuiste beweringen echte schade veroorzaken, is het niet duidelijk hoe we daar het beste op kunnen reageren. Wardle en haar co-auteurs hebben onlangs 50 studies gereviewd die keken naar mogelijke manieren om Covid-19 desinformatie te beperken. Veel studies keken naar een strategie die nauwkeurigheidsprompts worden genoemd, die gebruikers vragen om de nauwkeurigheid van een verhaal te overwegen voordat ze beslissen of ze het wel of niet willen delen. Andere onderzochten de effecten van inoculatie: korte lessen, vaak gepresenteerd in videoformaat, die mensen de tactieken van misleidende informatie leren voordat ze die in de echte wereld tegenkomen.

Het team van Wardle ontdekte echter dat dergelijke benaderingen slechts een bescheiden effect hebben en het is onduidelijk hoe lang het effect aanhoudt. “Er zijn verschillende dingen die we zouden moeten doen,” zei ze, “maar er is geen wondermiddel.”

Toen de Covid-19 pandemie begon, hadden de volksgezondheidsautoriteiten weinig empirisch onderbouwde strategieën om te reageren op valse informatie over de pandemie – laat staan om de mogelijke impact ervan te begrijpen. Maar naarmate de pandemie vorderde, begonnen steeds meer beleidsmakers en voorstanders te vragen om krachtiger op te treden tegen online desinformatie. Vaak pleitten ze voor ingrijpende strategieën waarvan sommige onderzoekers nu zeggen dat ze maar een beperkt effect hebben gehad.

‘Ernstige bedreiging voor volksgezondheid’

Deze zorgen over desinformatie bereikten een hoogtepunt in de zomer van 2021, middenin de uitrol van het Covid-19 vaccin. In juli publiceerde de Amerikaanse Surgeon General Vivek Murthy een advies over desinformatie over gezondheid, waarin hij het beschreef als “een ernstige bedreiging voor de volksgezondheid” die moest worden aangepakt met “een inspanning van de hele samenleving”.

Het aantal gevallen van Covid-19 nam toe en ongeveer zeven maanden na de uitrol van het vaccin bleef ongeveer een derde van de Amerikaanse volwassenen ongevaccineerd. Opiniepeilingen gaven aan dat velen onder hen er verkeerde overtuigingen op nahielden, zoals het idee dat de vaccins Covid-19 of zelfs onvruchtbaarheid zouden veroorzaken.

Naast Murthy begonnen andere functionarissen van het Witte Huis alarm te slaan over 12 accounts die volgens hen de meeste valse informatie online verspreidden. “Iedereen die ernaar luistert, wordt erdoor gekwetst”, vertelde president Joe Biden aan verslaggevers. “Het doodt mensen.”

Biden leek te verwijzen naar een rapport genaamd The Disinformation Dozen, geproduceerd door de non-profit Center for Countering Digital Hate (CCDH). In een samenvatting van het rapport stelde CCDH dat het verminderen of elimineren van de zichtbaarheid van de ergste overtreders “de meest effectieve manier is om de verspreiding van gevaarlijke desinformatie te stoppen.” Het rapport werd veel geciteerd door nieuwsorganisaties, waaronder CNN, CBS News, The Washington Post, en The Guardian.

Facebook, nu eigendom van Meta, ondernam uiteindelijk actie tegen de twaalf accounts. Maar het bedrijf reageerde ook afwijzend op het rapport, zeggend dat “het focussen op zo’n kleine groep mensen afleidt van de complexe uitdagingen waar we allemaal voor staan bij het aanpakken van verkeerde informatie over Covid-19 vaccins.”

Specifieke groepen deplatformeren

Ten minste één analyse suggereert dat Facebook misschien gelijk had. Een september-studie gepubliceerd in Science Advances ontdekte dat van november 2020 tot februari 2022 het beleid van Facebook met betrekking tot onjuiste informatie over vaccins “niet leidde tot een duurzame vermindering van de betrokkenheid bij anti-vaccin inhoud”. (Sommige van dezelfde auteurs bestudeerden ook het beleid van Twitter ten aanzien van verkeerde vaccininformatie. Dat artikel, dat nog niet peer-reviewed is, vond dat het beleid van Twitter mogelijk net zo ineffectief was).

Facebook heeft het echt geprobeerd, zei de hoofdauteur, David Broniatowski, associate director voor het Institute for Data, Democracy, & Politics aan de George Washington University. Het bedrijf “richtte zich duidelijk op veel anti-vaccin inhoud en verwijderde deze”, zei hij. Maar mensen verlegden simpelweg hun aandacht naar wat overbleef.

“Gewoon pagina’s sluiten, specifieke groepen deplatformeren, is niet bijzonder effectief zolang er een heel ecosysteem is dat dat soort inhoud ondersteunt,” zei Broniatowski.

Een deel van het probleem, zei Broniatowski, was dat Facebooks wens om anti-vaccin inhoud te verwijderen in strijd was met het fundamentele ontwerp van het platform, dat gebruikers wil helpen een gemeenschap op te bouwen en informatie te vinden. Het eindresultaat, zei hij, is een beetje zoals whac-a-mole spelen met anti-vaccin inhoud, alleen in dit geval, “hetzelfde bedrijf dat probeert de mollen te slaan, bouwt ook de tunnels waar de mollen doorheen kruipen”.

Als een groot socialmediabedrijf een individu of een groep bant, kan dat onbedoelde gevolgen hebben, zegt Ed Pertwee, een onderzoeker bij het Vaccine Confidence Project aan de London School of Hygiene & Tropical Medicine. Zo blijkt uit onderzoek dat gebruikers van wie de accounts zijn verwijderd vaak migreren naar minder gereguleerde sociale mediaplatforms zoals Gab of Rumble.

Deplatforming en slachtofferverhalen

Die overstap naar een alternatief platform beperkt meestal het bereik van een gebruiker, aldus Pertwee. Maar als de gebruiker migreert naar een minder gereguleerde site, kunnen ze in contact komen met mensen die hun ideologie delen of er nog extremere standpunten op na houden. Pertwee’s eigen onderzoek heeft bovendien ontdekt dat deplatforming kan leiden tot slachtofferverhalen die mensen ertoe aanzetten zich te verenigen rond een gedeelde angst voor vervolging door toedoen van grote technologiebedrijven.

Pertwee wees er ook op dat, hoewel de informatieomgeving een belangrijke invloed heeft op de houding van mensen ten opzichte van vaccinatie, het niet de enige invloed is – en misschien niet de belangrijkste. Een aantal onderzoeken hebben de aarzeling om te vaccineren in verband gebracht met het wantrouwen tegenover politici en medische deskundigen, zei Pertwee.

Daarom suggereren hij en zijn collega’s dat aarzelen over vaccins “vooral moet worden gezien als een vertrouwenskwestie en niet zozeer als een informatieprobleem”. Dat wil niet zeggen dat verkeerde informatie er niet toe doet, schreven ze in een Nature Medicine perspectief uit 2022, maar volksgezondheidsfunctionarissen zouden zich eerst en vooral moeten concentreren op het opbouwen van vertrouwen.

Het is onduidelijk waarom het Center for Countering Digital Hate zoveel nadruk legde op het verbieden van gebruikers als oplossing voor de terughoudendheid ten aanzien van vaccins – of waarom de regering Biden ervoor koos om het Disinformation Dozen-rapport uit te breiden. CCDH stemde aanvankelijk in met een interview met Undark eind september, maar zegde daarna herhaaldelijk af en weigerde uiteindelijk commentaar.

Colm Coakley, een woordvoerder van CCDH, reageerde niet op een korte vragenlijst van Undark waarin gevraagd werd naar het bewijs achter de aanbevelingen van de groep.

Definitie van desinformatie

Terwijl socialemediabedrijven en volksgezondheidsfunctionarissen werkten aan het modereren van de inhoud tijdens de pandemie, liepen ze tegen een andere vraag aan: wat was eigenlijk verkeerde informatie? In interviews met Undark maakten verschillende onderzoekers een onderscheid tussen berichten die aantoonbaar onjuist of ongefundeerd zijn – zoals het gerucht dat de Covid-19 vaccins microchips bevatten – en berichten die slechts een mening geven die buiten de wetenschappelijke mainstream valt.

Sommige onderzoekers zeggen dat het verwijderen of onderdrukken van deze laatste berichten het debat kan hebben gesmoord in een tijd waarin de Covid-19 wetenschap nieuw en onduidelijk was. Verder zorgde het beleid dat beperkte de verspreiding van beide soorten berichten voor de perceptie dat prominente critici van de volksgezondheidsautoriteiten – waaronder Kulldorff – het zwijgen werd opgelegd vanwege hun verzet tegen vaccinatiemandaten en ander controversieel beleid.

Overtuigingskracht in plaats van censuur

Kulldorff is misschien het best bekend als medeauteur van de Great Barrington Declaration, een document dat regeringen aanmoedigde om de beperkingen op gezonde jonge mensen op te heffen en tegelijkertijd een betere bescherming te bieden aan degenen die het grootste risico lopen. Al snel na publicatie werd de verklaring een bliksemafleider, waarbij sommige volksgezondheidsfunctionarissen het karakteriseerden als een oproep om het virus gewoon zijn gang te laten gaan door de bevolking, ongeacht de tol, als een manier om snel herd immunity te creëren. De website van de verklaring bleek kort na publicatie een lagere positie te krijgen in de zoekresultaten van Google, aldus Kulldorff in een beëdigde verklaring, en de Facebook-pagina van de verklaring werd kortstondig verwijderd.

Later, in april 2021, verwijderde YouTube een video van een beleids-rondetafelgesprek, georganiseerd door gouverneur Ron DeSantis van Florida, waarin Kulldorff en andere wetenschappers verklaarden dat kinderen zich tijdens de pandemie niet op school hoefden te maskeren.

Niets van deze inhoud had verwijderd moeten worden, aldus Jeffrey Klausner, een expert op het gebied van volksgezondheid aan de Universiteit van Zuid-Californië. Klausner werkte meer dan tien jaar als volksgezondheidsfunctionaris in San Francisco in de jaren 90 en 2000. In die tijd organiseerden hij en zijn collega’s gemeenschapsbijeenkomsten waar controversiële standpunten, waaronder aidsontkenning, werden geuit. “We lieten deze gesprekken toe en waren altijd geïnteresseerd in het ondersteunen van een open discussie,” zei hij.

Volksgezondheidsfunctionarissen zouden nog steeds moeten vertrouwen op overtuigingskracht en niet op censuur, aldus Klausner, zelfs in het internettijdperk waarin berichten snel viraal kunnen gaan. “Voor mij is het antwoord op vrije meningsuiting niet minder meningsuiting,” zei Klausner. “Het is meer meningsuiting.”

Heterodox denken

Sommige critici zien de impuls om accounts te sluiten als onderdeel van een bredere wens van leiders op het gebied van de volksgezondheid om het debat over controversiële onderwerpen te vermijden, van mondkapjesplicht tot de oorzaken van het SARS-CoV-2 virus. Sandro Galea, decaan van de Boston University School of Public Health, heeft uitgebreid geschreven over de waarde van vrije meningsuiting en debat binnen de volksgezondheidsgemeenschap. In een interview met Undark zei hij dat het redelijk is dat sociale mediabedrijven duidelijk onjuiste uitingen die schade kunnen veroorzaken, zoals het idee dat vaccins microchips bevatten of het ontkennen van historische gruweldaden, modereren.

Het is het heterodoxe denken waarvan Galea zich zorgen maakt dat het verloren gaat nu de volksgezondheid een, volgens hem, onliberaal moment doormaakt. In zijn nieuwe boek, Within Reason: A Liberal Public Health for an Illiberal Time stelt Galea dat de volksgezondheid tijdens de pandemie bepaalde kernprincipes uit het oog is verloren, waaronder vrije meningsuiting en open debat.

“Voor zover Kulldorff probeerde een discussie op gang te brengen, denk ik dat het jammer is om geen discussie toe te staan,” zei Galea. “Eventuele kortetermijnvoordelen van het verwijderen of de-boosting van dergelijke berichten zouden wel eens teniet kunnen worden gedaan door de langetermijngevolgen van het feit dat de volksgezondheid wordt gezien als onwillig om debat toe te staan en onwillig om erop te vertrouwen dat mensen de complexiteit begrijpen die inherent is aan het omgaan met een nieuwe ziekteverwekker.”

Murthy v. Missouri

Deze kwesties hebben zich nu gemanifesteerd in de rechtszaak tegen Kulldorff en anderen. Volgens de wet zijn sociale mediabedrijven vrij om te bepalen wat voor soort inhoud hun platformen hosten. De rechtszaak, onlangs omgedoopt tot Murthy v. Missouri, draait om de vraag of de federale overheid beschermde meningsuiting censureert door sociale mediabedrijven te dwingen bepaalde inhoud te modereren, met name berichten over verkiezingen en de Covid-19 vaccins.

“Het is een enorm belangrijke zaak”, zegt Lyrissa Lidsky, professor constitutioneel recht aan de Universiteit van Florida Levin College of Law. “De overheid heeft in toenemende mate ontdekt dat ze naar sociale mediabedrijven kan gaan en druk kan uitoefenen om dingen te laten verwijderen,” zei ze. Liberalen kunnen geneigd zijn om de interventies van de regering Biden te steunen, merkte ze op, maar ze kunnen er anders over denken als iemand anders de leiding heeft. “Als Trump de volgende presidentsverkiezingen wint en zijn mensen zijn in functie,” zei ze, “voel je je er dan prettig bij dat zij beslissen wat desinformatie is?”

In december wogen de American Academy of Pediatrics, de American Medical Association en drie andere artsenverenigingen mee met een juridische brief. De brief stelt dat de overheid een “dwingend belang” heeft bij het bestrijden van onjuiste informatie over vaccins omdat “studies hebben aangetoond dat onjuiste informatie over dit onderwerp het gebruik van vaccins kan verminderen, wat op zijn beurt het vermogen van vaccins om de verspreiding van ziekten te beheersen vermindert en het aantal geredde levens vermindert”.

Rechtse stemmen onderdrukken

Dit alles speelt zich af in een bredere politieke context waarin Republikeinen in toenemende mate in het offensief gaan tegen onderzoekers van desinformatie vanwege hun rol in wat Republikeinen in het Congres karakteriseren als Biden’s “censuurregime”. In januari werd de House Judiciary Select Subcommittee on the Weaponization of the Federal Government opgericht, onder leiding van de Republikeinse afgevaardigde Jim Jordan uit Ohio. De commissie wil onder andere onderzoek doen naar vermeende samenwerking tussen de overheid en sociale mediabedrijven om rechtse stemmen te onderdrukken. De commissie heeft een reeks documenten opgevraagd van onderzoekers die desinformatie bestuderen.

Het onderzoek van het congres en de rechtszaak hebben volgens sommige experts een chilling effect gehad op onderzoek naar desinformatie.

Mensen zijn “een beetje voorzichtig en voorzichtig geworden”, zegt K. Viswanath, een professor in gezondheidscommunicatie aan Harvard. Volgens hem zijn beschuldigingen van censuur overdreven. Als een wetenschapper een alternatieve mening wil geven, zegt hij, dan zijn er genoeg fora beschikbaar, waaronder wetenschappelijke tijdschriften en blogs van wetenschappelijke organisaties. Het ventileren van afwijkende wetenschappelijke meningen op sociale media, vervolgde Viswanath, kan bijdragen aan publieke verwarring en zelfs schade veroorzaken – een uitkomst die content moderators redelijkerwijs willen vermijden.

Strijd rond censuur

Recentelijk heeft Wardle nagedacht over hoe het veld van desinformatie-onderzoek heeft gereageerd op Covid-19. Volgens haar ging de impuls om online meningsuiting te beheren te ver. Net als Galea denkt ze dat het belangrijk is om inhoud te modereren, maar ze maakt zich zorgen dat, door deze inspanningen niet te beperken tot duidelijk onjuiste uitingen, het veld kwetsbaar is geworden voor juridische uitdagingen van de staten, wat een remmend effect heeft gehad op toekomstig onderzoek.

“Ik denk dat het falen om echt effectief te communiceren over de complexiteit van een probleem ons heeft geleid tot deze strijd rond censuur,” zei ze. Vooral in het geval van de Covid-19 pandemie, waar zoveel van de wetenschap echt onduidelijk was, hadden de platforms mensen moeten laten zeggen wat ze wilden, zei ze. “Maar laten we slimmer zijn in het zeggen waarom we denken zoals we denken,” voegde ze eraan toe.

“In plaats van te zeggen dat deze mensen gek zijn, moet je ze pakken en zeggen: ‘Kijk, we hebben allebei geneeskunde gestudeerd. Ik lees dit tijdschrift en zeg dit, jij leest hetzelfde tijdschrift en zegt dat: waarom?'”

Dit artikel werd oorspronkelijk gepubliceerd op Undark. Lees het originele artikel. Vanuit het Engels vertaald door Deepl/TPO.