Som mange læsere ved, er vi her på stedet stærkt kritiske overfor nedlukningerne, der har plaget verden det sidste halvandet år. Den empiriske forskning har helt siden sidste sommer vist, at de ikke gjorde nogen forskel: Jo hårdere, tidligere og jo mere diktatorisk staterne lukkede ned var ligegyldigt for, hvor stor overdødeligheden blev. Og de sidste 100 års erfaringer – som endda var nedfældet i flere landes epidemiguidelines og gentaget i et omfattende review af WHO i 2019 – viser klart, at den type politik fører til flere dødstal på længere sigt, når hjertetilfældene, de ubehandlede kræftsygdomme, desperationsdødsfaldene, og en sandsynlig million fattigdomsdødsfald i Afrika slår igennem.
Alligevel, på trods af det vi som økonomer opfatter som næsten totalt fravær af dokumentation for positive effekter af nedlukninger, har mange epidemiologer og læger blankt afvist den empiriske forskning. Jeg har haft meget svært ved at forstå en så blank afvisning af omhyggelig, omfattende dokumentation fordi den kommer fra et andet videnskabeligt felt, der netop er specialiseret i konsekvensevalueringer af offentlig politik.
Tidligere på året fik jeg et hint om, i hvor høj grad statistik spiller forskellige roller og bruges forskelligt i epidemiologi og nationaløkonomi. Hintet kom i form af en venlig e-mail fra en epidemiolog, der bad om data fra min artikel om nedlukninger. Det særlige var, at den pågældende kollega bad om data, som jeg havde brugt til at ’træne min model med’. Jeg var meget forvirret til at starte med, indtil jeg efter en del søgning på nettet, indså at min forvirring kom fra den fundamentalt anderledes måde, vi bruger data og statistik i samfundsvidenskaberne.
Når kollegaen bad om data til at træne en model, er det fordi han er vant til at bruge statistik til at finde ud af parametrene på en allerede kendt proces – eller en proces, man tror man kender. Det er for eksempel en såkaldt SIR-model (læs f.eks. her), hvor man ’blot’ skal kende reproduktionsrate osv. Omvendt bruges statistik kun sjældent til at træne modeller i samfundsvidenskaberne. Vi bruger den til at finde ud af, hvordan modellen ser ud. I samfundsvidenskaberne starter vi med andre ord væsentligt tidligere i den videnskabelige proces, og laver væsentligt færre antagelser om, hvordan verden ser ud.
Det er derfor heller ikke så overraskende – eller sjældent – at finde, at offentlig politik enten ingen effekt har, eller virker direkte modsat intentionen. Omvendt kan det være noget af en overraskelse i epidemiologi, for eksempel, hvor man allerede har specificeret modellen og dermed lagt en helt bestemt struktur ned over data. Hvad gør man da, når data ikke passer på ens teoretisk specificerede struktur? Prøver man at få data til at makke ret, påstår man at der er noget galt med dem, eller indser man at ens teoretiske forståelse er mangelfuld (eller forkert)?
Jeg vil på ingen måde påstå, at det er sådan alle epidemiologer gør – eller at der ikke er økonomer, der tvinger en struktur ned over data – men blot påpege, at de gnidninger, der har været mellem samfundsvidenskaberne og deres normale insisteren på at gå, hvor data tager en hen, og epidemiologien, faktisk giver en vis mening. Noget af den kommer fra fundamentalt forskellige videnskabelige tilgange, og ofte også en noget forskellig opfattelse af, hvornår noget tæller som evidens. Jeg foretrækker i høj grad den samfundsvidenskabelige approach, og dens tradition for omhyggelig etablering af evidens, i modsætning til den ofte skjuskede tilgang i medicin. Men netop den approach er også en del af forklaringen på, hvorfor andre discipliner og mange politikere har det så svært med os…