BFI – det nedsivende styringsredskab

Mange forskere opfatter publiceringsnormer som en pestilens og spændetrøje, fordi de bruges til skjult styring. Men problemet kan løses ved, at institutledere i praksis tager styringen over, hvad de bruges til, mener forsknings-ekspert

BFI-normer opfattes af mange forskere som kilden til adfærdsstyring i uhensigtsmæssig retning:

Hvorfor skal man publicere i internationale tidsskrifter, når ens stofområde kun interesserer danskere?

Hvorfor er antallet af publiceringer vigtigere end læsninger og citationer?

Hvorfor er det ikke karriefremmende at bruge tid på populærformidling af ens forskning?

Hvorfor skal man satse på et bredere forskningstidsskrift frem for det snævre, der dækker ens kerneområde?

Spørgsmålene til forskningens publiceringsnormer er mange, og svaret på stort set alle sammen er: BFI – den bibliometriske forskningsindikator. For selv om BFI-systemet er lavet til at fordele penge mellem universiteterne, og ikke mellem forskere, har det i høj grad fået betydning for forskningsledelsen helt nede på institutplan.

”Modellen er tænkt som et helt overordnet instrument til omfordeling af midler imellem universiteterne, der dog reelt ikke omfordeler de store andele. Men der er sket det, at tankegangen mange steder er sivet ned igennem systemet og de facto blevet et styringsredskab på mange institutter, specielt på de tørre områder. Og det synes jeg virkelig er problematisk.”

Forklarer professor Jesper Wiborg Schneider fra Center for Forskningsanalyse på AU, der specifikt forsker i bibliometri og forskningsevaluering. Han henviser til, hvordan forskere individuelt bliver vurderet på deres publiceringsomfang eller får publiceringsmålsætninger, de skal leve op til.

Svært at se alternativ

Men er der et alternativ? Det har Schneider umiddelbart svært ved at pege på. Alle lande, vi sammenligner os med, har tilsvarende systemer, der omfordeler og direkte eller indirekte belønner efter en kvantitativt målt produktivitet og/eller impact, og Danmarks er langt fra det værste, mener han.

”Mange vil sikkert gerne af med BFI’en. Men hvad kommer i stedet? Jeg er ikke så naiv at tro, at så falder pengene bare tilbage som bloktilskud. Der er heller ingen tendenser i Europa eller Nordamerika til, at performance management-tankegangen er ved at forsvinde på universiteterne. Så man finder sikkert på noget der ligner,” siger han med henvisning til det landets politikere og embedsmænd.

Samtidig er det heller ikke alle dele af videnssamfundet, der er utilfredse.

”Det her er jo ikke kun en ekstern ting. Der er også en intern mekanik. Man taler i videnskabssociologien om, at der er en social stratifikation. At nogle få er meget privilegerede, de får meget, og har meget indflydelse på herunder på kvalitetskriterier så som tidsskriftslister. De personer har en interesse i at opretholde de her evalueringssystemer.”

Et sted i Europa er der en ordning, der måske kan tjene som inspiration. Den belgiske delstat Flandern har et system, hvor der måles forskelligt på forskellige videnskabsområder – de våde område måles på antallet citationer, og de tørre områder tæller publikationer som i Danmark.

Tilpas krav til fagområders traditioner

I Danmark varierer holdningen til BFI-systemet efter, hvilket område, man kommer fra. Fra tørre områder hører man ofte utilfredshed med, at bredere formidling ikke tæller som forskningsoutput. På NAT- og TEK-området er der tradition for at se på citationer, og her har man svært ved at se fornuften i, at det er publikationsantallet, der tælles på. Læg dertil diskussionen om inflation i medforfatterskaber, som har været udtalt på blandt andet SUND.

Schneider peger på, at Danmark i sin tid valgte den norske model, for at få et samlet system, der kunne gå på tværs af alle områder. Men i modsætning til Norge, hvor der er fri konkurrence om pengene, er pengene i Danmark låst imellem hovedområderne.

”Kritikken af BFI’en er forskellig områderne imellem. Nogle tørre områder er utilfredse med de restriktive kriterier for publikationstyper og videnskabelighedskriterier. Fra de våde områder går kritikken som regel på, at man foretrækker at blive bedømt på impact frem for et simpelt publikationspointsystem. Så når man alligevel ikke har fri konkurrence mellem områderne, hvorfor så ikke tilpasse systemet til hvert enkelt område? Man kan sagtens tænke mere fleksibilitet ind i modellen i forhold til områdernes unikke karakteristika. Hvis NAT’erne og TEK’erne vil have citationer, kan man jo overveje det. Hvis HUM’erne vil have flere typer publikationer til at tælle, så kan man jo også overveje det: Det ændrer næppe meget på det overordnede niveau, udover at modellen bliver mere uigennemskuelig,” siger Schneider.

Han tilføjer, at det faktisk oprindeligt var planen, at formidlingsdelen skulle tælle med i den danske BFI-model, men det blev droppet, fordi det var for besværligt at realisere.

Institutleder skal være bolværk

Men med det nuværende system mener Jesper Schneider, at det i høj grad er institutledernes opgave at sørge for, at BFI-modellen forbliver det, den var tænkt som: et redskab til performancebaseret omfordeling mellem universiteterne, og ikke til personlig forskningsledelse.

”Der er ingen tvivl om, at det er et lokalt ledelsesansvar. En stærk institutleder bør sige: vi ved godt, vi skal indberette til BFI’en, men internt på instituttet har vi vores egne mål for performance og kvalitet. Men altså … jeg har selv været institutleder, og jeg ved godt, at det er svært at opretholde de principper. Der er jo modsatrettede incitamenter i spil her,” mener Jesper Schneider.

lah