google.com, pub-2267199481962701, DIRECT, f08c47fec0942fa0
top of page

/oversiktsartikler

Oversiktsartikler inkluderer ulike typer reviewartikler og meta-analyser og regnes som den sterkeste formen for evidens i forskning

 

Oversiktsartikler er en omfattende innsamling, vurderering og oppsummering av tidligere publisert forskning innenfor et bestemt emne. Dette designet gir akademikere muligheten til å identifisere sentrale funn, teorier og metodologiske tilnærminger, samt å oppdage eventuelle mangler i den eksisterende litteraturen. Innenfor reviewartikler finner man forskjellige grader av hvor systematisk man gjennomgår eksisterende litteratur ut ifra studiens formål, hvor mye forskning det finnes på feltet og hvor hurtig man ønsker å gjennomføre oversiktsartikkelen (felt som COVID og kunstig intelligens har for eksempel krevd såkalte rapid reviews for å holde følge med den nye forskningen og endringene i verden. Oversiktsartikler som kategori kan strekkes til å inkludere alt fra dokumentanalyser til meta-analyser og kan være både kvalitative og kvantitative.

 

Den sterkeste formen for evidens får man fra meta-analyser. Disse går et skritt videre ved å kvantitativt kombinere resultater fra flere studier for å trekke mer robuste konklusjoner om en problemstilling. Ved å anvende statistiske metoder kan meta-analyser tilby en verdifull innsikt og oversikt over generelle trender, effektstørrelser og potensielle moderasjonsfaktorer i forskningen. Sammen bidrar oversiktsartikler til en dypere forståelse av forskningsfeltet, muliggjør mer evidensbasert praksis og veileder fremtidig forskning ved å understreke hvor det er mest behov for ny kunnskap og forståelse.

napkin-selection.png

Planlegging

 

Gjennomføring av en oversiktsartikkel krever grundige forberedelser og planlegging for å gjøre arbeidet som følger lettere og ryddigere

 

Uavhengig om man skal gjennomføre en systematisk oversikt, en meta-analyse, eller en annen type review, krever hver av disse en strategisk tilnærming for å sikre pålitelige og meningsfulle resultater. Denne teksten vil utforske nøkkelkomponentene i forberedelsen av en oversiktsartikkel, inkludert bakgrunn og målsetting, plan for søk etter kilder og screening, kritisk vurdering og datahåndtering, samt syntese og kartlegging av funn.

Enhver oversiktsartikkel begynner med en klar definisjon av bakgrunnen og målet med studien. Dette innebærer å identifisere kunnskapshullene som oversikten sikter mot å fylle, samt å formulere presise forskningsspørsmål eller hypoteser. En godt definert bakgrunn gir kontekst og retning, og hjelper til med å rettferdiggjøre nødvendigheten av oversiktsartikkelen. Målet med oversikten bør være spesifikt, målbart, oppnåelig, relevant og tidsbestemt (SMART), for å veilede den videre forskningsprosessen effektivt.

Søkestrategi

En omfattende søkestrategi er avgjørende for å identifisere relevante studier som skal inkluderes i oversiktsartikkelen. Dette trinnet innebærer å utvikle en omfattende søkestrategi ved hjelp av relevante databaser, inkludert både publisert og upublisert (grå) litteratur, for å minimere publikasjonsbias. Videre bør man bruke kontrollerte begreper og frie tekstord for å sikre at søket fanger opp alle relevante studier. I dette steget er det viktig å dokumentere søkeprosessen nøye, inkludert søkedatoer, databaser og søkeord, for å sikre gjennomsiktighet og potensiell reproduserbarhet. Etter identifisering av potensielle studier, følger screeningprosessen ved bruk av forhåndsdefinerte inklusjons- og eksklusjonskriterier for å velge studier som vil bli vurdert nærmere. Denne prosessen innebærer ofte en første tittelsjekk og screening av sammendrag, etterfulgt av en fulltekstvurdering av studiene som passerer den første screeningen. På siden om litteratursøk kan du lese mer om søkeprosessen, samt få hjelp til å utarbeide din egen søkestreng.

Screening

 

Screeningprosessen er en fase der forskere identifiserer og velger studier som skal inkluderes i deres litteraturgjennomgang basert på forhåndsdefinerte inklusjons- og eksklusjonskriterier. Denne prosedyren sikrer at oversiktsartikkelen fokuserer på relevant og kvalitetssikret forskning som svarer direkte på de spesifikke forskningsspørsmålene eller hypotesene som er stilt. Gjennomføringen av screeningprosessen krever nøye planlegging og oppmerksomhet for å unngå bias og sikre integriteten i forskningsarbeidet. 

 

Når søkestrategien er implementert og en tentativ samling av potensielle studier er identifisert, begynner screeningprosessen med en første gjennomgang av titler og sammendrag. Hensikten med denne første fasen er å raskt filtrere ut studier som åpenbart ikke oppfyller de definerte kriteriene, som de som ikke er relevante for forskningsspørsmålet eller som ikke omhandler det spesifikke emnet for gjennomgangen. Det er viktig at minst to forskere arbeider uavhengig av hverandre i denne fasen for å redusere risikoen for å overse relevante studier eller feilaktig ekskludere potensielt nyttige data. En grundig plan med tydelig definerte inklusjonskriterier er sentralt for å gjøre denne prosessen så lett som mulig og redusere usikkerhet eller uenighet mellom screenere.

Etter den første gjennomgangen av titler og sammendrag, følger en mer detaljert evaluering av fulltekstartikler. I denne fasen gjennomgås studiene som passerte den første screeningen nærmere for å bekrefte at de tilfredsstiller alle inklusjonskriteriene. Det er her essensielt å ha en klar og konsistent anvendelse av inklusjons- og eksklusjonskriteriene for å sikre en objektiv og rettferdig vurdering av hver studie. Forskere bør dokumentere grunnene til eksklusjon for studier som ikke blir inkludert etter fulltekstevaluering, som bidrar til transparens og etterprøvbarhet i forskningsprosessen. En vanlig utfordring i screeningprosessen er å balansere ønsket om en omfattende gjennomgang med behovet for å håndtere et stort volum av informasjon.

 

For å effektivisere prosessen kan man benytte seg av screeningsprogramvare, databasestyringssystemer eller kunstig intelligens designet for systematiske gjennomganger. Disse verktøyene kan hjelpe forskere med å organisere, spore og dokumentere vurderingen av studiene gjennom hele screeningsprosessen. Til slutt er det viktig å anerkjenne at screeningprosessen er grunnleggende subjektiv, selv med klare inklusjons- og eksklusjonskriterier. Forskjellige forskere kan tolke kriteriene noe annerledes, noe som potensielt kan føre til inkonsistenser i hvilke studier som blir inkludert. For å motvirke dette, bør uenigheter mellom forskere løses gjennom diskusjon og konsensus, eller ved å konsultere en tredje part dersom nødvendig. Dette samarbeidet sikrer en mer robust og pålitelig screeningprosess og styrker kvaliteten på den endelige oversiktsartikkelen.

​​

Kritisk vurdering av de inkluderte studiene

 

Etter at man har inkludert studier, vurderes deres metodiske kvalitet og risiko for bias. Her bør man bruke standardiserte vurderingsverktøy for å gjennomføre en systematisk og objektiv vurdering (se under). Som i screeningen, bør også dette steget gjennomføres av to uavhengige forskere. Dette trinnet hjelper forskere med å bestemme studienes pålitelighet og relevansen av deres bidrag til oversiktsartikkelen. I noen sammenhenger inkluderer man flere typer studier (for eksempel RCT og kohortestudier) i samme oversiktsartikkel. I slike tilfeller skal man benytte separate sjekklister og verktøy som er spesifikt designet for de ulike studiedesignene.

PEDro-skalaen er spesifikt utviklet for å vurdere kvaliteten på randomiserte kontrollerte forsøk (RCTer), særlig innen fysioterapi (men kan også brukes innen andre, lignende fagfelt som for eksempel helse, trening eller ernæring). Skalaen består av 11 kriterier som dekker ulike aspekter av studiens metodologi, inkludert intern og ekstern validitet, samt risiko for bias. 

Cochrane-samarbeidets verktøy (RoB 2) for vurdering av risiko for bias på en rekke potensielle kilder til bias, inkludert seleksjonsbias, rapporteringsbias, og publikasjonsbias. Dette verktøyet oppmuntrer til en nøye evaluering av hvordan studier er valgt, hvordan data er samlet og analysert, og hvordan resultatene er rapportert.

SIGN (Scottish Intercollegiate Guidelines Network) sjekklistene representerer et sett av verktøy utviklet for å støtte helsepersonell, forskere, og retningslinjeutviklere i prosessen med å vurdere kvaliteten på forskjellige typer vitenskapelige studier. Disse sjekklistene dekker et bredt spekter av studietyper, inkludert randomiserte kontrollerte forsøk, kohortstudier, kasuskontrollstudier, diagnostiske studier, med mer, og er spesifikt utformet for å identifisere styrker, svakheter, og potensiell risiko for bias i disse studiene.

​​

Datahåndtering og ekstraksjon 

 

Dette steget innebærer uthenting av nøkkelinformasjon fra hver inkluderte studie og systematisering av denne informasjonen for videre analyse og syntese. Det er viktig å utvikle en dataekstraksjonsskjema som sikrer konsistent og nøyaktig samling av data om studiens design, deltakere, intervensjoner, utfall og resultater. Akkurat som på tidligere steg, bør også dette gjøres av flere uavhengige forskere for å sikre nøyaktighet og objektivitet. Her er det viktig å hente ut "riktig" informasjon, definert som den informasjonen som er ansett som mest viktig og relevant for problemstillingen.

 

Man utarbeider helst et hierarki i planleggingsfasen som forteller oss hvilken type data som er mest hensiktsmessig å hente ut fra de inkluderte artiklene. Videre kan man hente ut forskjellige datatyper fra samme studier, men man må være bevisst på å bare hente ut én målemetode for hvert element. For eksempel, dersom man ønsker å samle informasjon om "smerte", skal man bare hente informasjon fra hver studie målt på én måte (for eksempel VAS-skala), mens man må ekskludere sekundære målemetoder for samme variabel (for eksempel spørreskjema).

Sensitivitetsanalyse

 

Å analysere sensitiviteten i studien sin er en viktig komponent i utarbeidelsen av oversiktsartikler, spesielt når det gjelder å vurdere robustheten av funnene som presenteres. Denne analysen innebærer å gjennomføre systematiske variasjoner i studiens metoder, inkluderte studier eller innsamlet datatype for å undersøke hvordan slike endringer påvirker de endelige resultatene og konklusjonene. Hensikten med en sensitivitetsanalyse er å identifisere hvor følsomme resultatene er for spesifikke metodevalg, som for eksempel inklusjonskriterier for studier, kvalitetsvurdering av studiene, eller valg av statistiske analyseteknikker.

 

Ved å utføre sensitivitetsanalyser kan forskere vise at deres konklusjoner enten er robuste eller sensitiv for visse forutsetninger eller begrensninger i dataene eller metodene som er brukt. Dette gir et mer nyansert bilde av forskningsfunnenes pålitelighet og bidrar til større transparens og tillit til oversiktsartikkelens konklusjoner. Sensitivitetsanalyser er spesielt verdifulle i meta-analyser og systematiske oversikter, hvor samlede data fra flere studier analyseres for å trekke generelle konklusjoner om et forskningsfelt. Ved å klart rapportere hvordan varierende metodologiske valg påvirker forskningsfunnene, kan sensitivitetsanalyser hjelpe oss med å bedre forstå styrken og begrensningene ved den eksisterende evidensen.

napkin-selection (25).png

Meta-analyser

 

Dette designet brukes til å aggregere og systematisk analysere resultater fra flere, uavhengige studier om et bestemt forskningsspørsmål

Ved å kombinere data fra flere kilder, kan meta-analyser øke statistisk styrke, forbedre estimater av effektstørrelse og gi innsikter som kanskje ikke er mulige gjennom individuelle studier. Denne metodikken er spesielt verdifull i felt hvor forskningsfunn er sprikende eller begrenset av små utvalgsstørrelser. Meta-analyser bidrar til vitenskapelig kunnskapsbygging ved å identifisere mønstre, styrker forbindelser mellom teorier og praksis, og fremhever områder som trenger ytterligere forskning.

Her finner du en oversikt over noen av de viktigste begrepene som ofte brukes innenfor meta-analyser. Denne listen gir en grunnleggende forståelse av viktige nøkkelkonsepter Effektstørrelse (ES): Et kvantitativt mål på størrelsen av forskjellen mellom grupper eller den observerte effekten av en intervensjon. Siden effektstørrelser er standardiserte, tillater de sammenligning av resultater på tvers av studier, uavhengig av studienes størrelse. Standard Error (SE): Standardfeilen til effektstørrelsen måler spredningen av effektstørrelser som man ville forvente å finne hvis man gjentatte ganger trakk tilfeldige prøver fra samme populasjon. Konfidensintervall (CI): Dette er et intervall rundt effektstørrelsen som med en viss sannsynlighet (som regel 95%) inneholder den "sanne" effektstørrelsen. Et bredt konfidensintervall indikerer mer usikkerhet omkring den estimerte effektstørrelsen. Heterogenitet: Variasjon eller forskjeller mellom studienes resultater og utvalg. Heterogenitet kan være klinisk (forskjeller i studiepopulasjoner, intervensjoner, utfall), metodologisk (forskjeller i studiekvalitet, design), eller statistisk (mer variasjon i effektstørrelsene enn hva som kan forventes ved tilfeldighet). I^2-statistikk: Dette er et mål på hvor stor del av den totale variasjonen mellom studienes resultater som skyldes heterogenitet snarere enn tilfeldighet. Verdier på 0% indikerer ingen observerbar heterogenitet, mens verdier over 50% ofte anses å indikere betydelig heterogenitet. Q-statistikk: Q-statistikk er en test for å undersøke tilstedeværelsen av statistisk heterogenitet i en meta-analyse. En signifikant Q-statistikk indikerer heterogenitet blant de kombinerte studienes resultater. Random Effects Model (REM): En statistisk modell brukt i meta-analyser som antar at de studerte effektene varierer mellom studiene, ikke bare på grunn av tilfeldighet, men også på grunn av ekte forskjeller i effektstørrelser. Denne modellen tar høyde for heterogenitet. Fixed Effects Model (FEM): FEM er en statistisk modell brukt i meta-analyser som antar at alle studier estimerer den samme underliggende effektstørrelsen, og at observerte forskjeller mellom studienes resultater skyldes tilfeldighet alene. Forest Plot: Disse er grafiske fremstillinger av resultatene fra en meta-analyse, hvor hver studie representeres av et punktestimat for effektstørrelse og et konfidensintervall. Dette plottet hjelper til med å visualisere størrelsen og retningen av effekter samt graden av heterogenitet mellom studiene. Publikasjonsbias: Dette begrepet viser til en systematisk skjevhet som oppstår når sannsynligheten for publisering av forskningsresultater er avhengig av styrken eller retningen av funnene. Dette kan føre til at meta-analyser gir en skjev representasjon av den sanne effekten. Funnel Plot: Dette er et verktøy for å undersøke mulig publikasjonsbias i en meta-analyse. Plotet illustrerer spredningen av studienes effektstørrelser mot et mål på studiestørrelse eller presisjon, og asymmetri i plottet kan indikere tilstedeværelse av publikasjonsbias.

Fremgangsmåten i meta-analyser:

Den generelle fremgangsmåten når man arbeider med en meta-analyse inkluderer mesteparten av planleggingen som man må foreta når man skal utføre en hvilken som helst form for oversiktsartikkel. Under finner du en kort gjennomgang av elementer som bør planlegges, før vi går mer spesifikt inn på de punktene som er særlig sentrale innenfor meta-analyser*.

Formulering av forskningsspørsmål og hypoteser

Klart definerte, spesifikke og relevante forskningsspørsmål og hypoteser danner grunnlaget for meta-analysen. Disse bør være rettet mot å løse konkrete kunnskapsgap eller kontroverser innenfor et felt.

 

Systematisk litteratursøk

En omfattende og systematisk søkestrategi utvikles for å identifisere alle relevante studier. Dette inkluderer søk i flere databaser, grå litteratur, og manuell leting i referanselister, for å sikre at så få relevante studier som mulig går tapt. Du kan lese mer om litteratursøk her.

 

Screening og seleksjon av studier

Bruk av forhåndsdefinerte inklusjons- og eksklusjonskriterier for å vurdere studiene identifisert gjennom litteratursøket. Dette trinnet krever helst en uavhengig gjennomgang av flere forskere for å minimere bias.

 

Vurdering av studiekvalitet, risiko for bias og publikasjonsbias 

Bruk av standardiserte verktøy for å vurdere den metodiske kvaliteten og risikoen for bias i de inkluderte studiene. En oversikt over potensielle sjekklister finner du i seksjonen over. Publikasjonsbias oppstår når sannsynligheten for publisering av forskningsresultater er avhengig av styrken eller retningen av funnene. Forskere er gjerne mer motiverte til å publisere signifikante funn, mens såkalte "null-funn" er mindre interessante. På samme måte vil ofte tidsskrifter ha lettere for å akseptere publikasjon av signifikante funn. Dette fører til en skjevhet i den tilgjengelige litteraturen, hvor positive eller statistisk signifikante resultater er overrepresentert. I meta-analyser kan publikasjonsbias gi et forvrengt bilde av den reelle effekten og kan overdrive de samlede effektstørrelsene. For å identifisere og håndtere publikasjonsbias, benyttes ulike metoder og teknikker, som funnel plots og Egger's regresjonstest. Funnel plots visualiserer spredningen av effektstørrelser mot studienes presisjon og kan avsløre asymmetri som indikerer publikasjonsbias. Egger's test kvantifiserer graden av asymmetri og tester dens statistiske signifikans. Ved å adressere publikasjonsbias, sikrer forskere en mer balansert og nøyaktig syntese av evidensen.

Sensitivitetsanalyser

Sensitivitetsanalyser tester robustheten og stabiliteten av funnene mot ulike analytiske valg og forutsetninger. Gjennom å variere aspekter av dataanalysen, som inklusjonskriterier for studier, metoder for håndtering av manglende data, eller statistiske modeller, kan vi undersøke i hvilken grad disse valgene påvirker resultatene av meta-analysen. Dette gir en dypere forståelse av funnenes pålitelighet og identifiserer potensielle kilder til bias. For eksempel, ved å utelukke studier med høy risiko for bias fra analysen, kan vi vurdere om disse studiene hadde en vesentlig innvirkning på de samlede resultatene. Sensitivitetsanalyser bidrar til økt transparens og tillit til meta-analysens konklusjoner ved å demonstrere at funnene ikke er avhengige av spesifikke, potensielt kontroversielle, analytiske beslutninger.

*Dataekstraksjon

Systematisk ekstraksjon av nøkkelinformasjon fra de inkluderte studiene, som demografiske data, intervensjonsdetaljer, utfallsmål og resultater, ved hjelp av et forhåndsutviklet dataekstraksjonsskjema.

 

*Statistisk analyse og syntese av data

Beregning av samlede effektstørrelser og konfidensintervaller ved hjelp av passende statistiske modeller, og evaluering av heterogenitet og potensiell publikasjonsbias.

 

Tolkning og rapportering av resultater

Tolkning av funnene i lys av eksisterende teori og tidligere forskning, diskusjon av mulige praktiske implikasjoner, og identifisering av behov for fremtidig forskning.

 

Dataekstraksjon

 

Dataekstraksjon er en prosess i gjennomføringen av meta-analyser og systematiske oversikter hvor detaljert og nøyaktig informasjon hentes ut fra de studiene som er valgt for inklusjon. Denne prosessen er avgjørende for å sikre at all relevant data som er nødvendig for å svare på forskningsspørsmålene blir samlet systematisk og konsekvent. Dataekstraksjon gir grunnlaget for den senere analysen og syntesen av forskningsfunnene, og må derfor gjøres med stor omhu og nøyaktighet.

Dataekstraksjonsskjema

 

For å starte prosessen med dataekstraksjon, utvikles først et dataekstraksjonsskjema. Dette skjemaet er utformet for å standardisere innsamlingen av data fra de inkluderte studiene og sikre at alle relevante opplysninger blir registrert. Typisk vil skjemaet inkludere felt for generell informasjon om studien (for eksempel studiets tittel, forfattere, publikasjonsår), studiedesign, utvalgsstørrelse, deltakerkarakteristikker, beskrivelser av intervensjoner eller eksponeringer, utfallsmål, og de hovedresultatene / utfallsmålene som rapporteres. Det er viktig at dataekstraksjonsskjemaet er tilpasset den spesifikke oversiktens mål og forskningsspørsmål. For eksempel, i en meta-analyse som fokuserer på effekten av en spesifikk behandling, vil detaljerte opplysninger om dosering, varighet av behandlingen, og oppfølgingstid være nødvendig. I en oversikt som undersøker risikofaktorer, vil informasjon om eksponeringsnivåer, justering for konfunderende faktorer, og risikoestimater være relevant. På denne siden kan du laste ned dataekstraksjonsskjema utviklet av Cochrane. Merk at disse er svært utfyllende, så det kan i mange tilfeller være gunstig å bruke disse til inspirasjon for å utforme egne som er mer spesifikke til sin problemstilling.

 

Henting av data

 

Når skjemaet er utviklet, begynner prosessen med å ekstrahere data fra de valgte studiene. Dette arbeidet bør, om mulig, gjøres av minst to uavhengige vurderere for å minimere bias og menneskelige feil. Uenigheter mellom vurdererne løses gjennom diskusjon eller ved konsultasjon med en tredje part. Å involvere flere vurderere bidrar til å sikre objektivitet og nøyaktighet i datainnsamlingen. Underveis i dataekstraksjonsprosessen er det viktig å være oppmerksom på konsistensen i definisjoner og målemetoder som er brukt i de forskjellige studiene. Variasjoner i hvordan utfallsmål er definert og målt kan påvirke sammenlignbarheten mellom studiene. Man må kanskje harmonisere disse dataene eller utføre sensitivitetsanalyser for å vurdere effekten av slike forskjeller på de samlede resultatene.

Noen ganger kan hentingen av data være utfordrende dersom ikke all nødvendig informasjon er rapportert, hvis fulltekst av artikler mangler, eller hvis forskjellige artikler har benyttet ulike målemetoder og enheter. Under finner du noen tips og metoder for å forsøke å håndtere slike utfordringer.

Kontakt forfattere direkte

Hvis nødvendig informasjon ikke er rapportert i studien eller hvis det er uklarheter rundt datarapporteringen, kan det være nyttig å kontakte forfatterne direkte. Mange forskere er villige til å dele rådata eller klargjøre metoder for datainnsamling og -analyse. Når du kontakter forfattere, vær spesifikk om hvilken informasjon du trenger og hvordan den vil bli brukt i din meta-analyse. Dette kan øke sjansene for et positivt svar.

Bruk statistiske metoder for å konvertere målemetoder

Forskjeller i rapporterte målemetoder, som for eksempel standardavvik vs. standardfeil, kan komplisere prosessen med å aggregere data. Heldigvis finnes det statistiske metoder for å konvertere mellom disse målemetodene. For eksempel kan standardfeil konverteres til standardavvik ved å multiplisere standardfeilen med kvadratroten av studiens utvalgsstørrelse. Ved å standardisere datarapporteringen, kan du mer nøyaktig sammenligne og syntetisere resultater fra ulike studier. Det kan også være utfordrende å sammenligne resultater når forskjellige studier rapporterer ulike typer effektstørrelser, for eksempel Cohen's d, Hedges' g eller odds ratio. I slike tilfeller kan det være nødvendig å konvertere disse effektstørrelsene til en felles metrikk. Flere omregningsformler og programvarer er tilgjengelige for å assistere i denne prosessen, noe som gjør det mulig å inkludere et bredt spekter av studier i din meta-analyse. Under finner to eksempler på omregninger for effektstørrelser, mens lenger nede på siden finner du et verktøy som kan hjelpe deg å konvertere mellom ulike rapporteringsmåter. Alternativt kan man, dersom tilgjengelig, bruke dataene rapportert i studien til å beregne effektstørrelser selv. Dersom dette ikke er tilgjengelig, kan man forsøke å kontakte forfatterne for å motta rådataene.

 

Fra korrelasjonskoefficient (r) til Cohen's d: d = 2r / √1-r²

 

Fra odds-ratio (OR) til Cohen's dd = ln(OR) / √3/π

Bruk meta-analytisk programvare

For å forenkle prosessen med datahåndtering og analyse, kan det være nyttig å benytte programvare spesielt designet for meta-analyser. Disse verktøyene tilbyr funksjoner for å håndtere vanlige utfordringer, som datakonvertering og aggregering av forskjellige effektstørrelser. Noen eksempler på slike programvarer inkluderer Comprehensive Meta-Analysis, RevMan og JASP. 5. Transparens og Rapportering Ved å støte på utfordringer med datatilgang eller -konsistens, er det viktig å rapportere disse utfordringene transparent i din meta-analyse. Dette inkluderer å beskrive eventuelle tiltak du tok for å innhente manglende data, samt eventuelle antakelser eller konverteringer som ble gjort for å inkludere data fra forskjellige studier.

 

Systematisering

 

Etter at data er hentet ut for en meta-analyse, er det viktig at informasjonen lagres på en systematisk og organisert måte som gjør det enkelt å gjennomføre videre analyser. Effektiv datahåndtering er nøkkelen til å sikre integriteten og påliteligheten til meta-analysens resultater. Dette trinnet kan innebære opprettelsen av detaljerte databaser eller anvendelsen av spesialisert programvare designet spesifikt for å håndtere data fra systematiske oversikter og meta-analyser. Disse verktøyene tillater forskere å strukturere data på en slik måte at det er lett å utføre statistiske analyser, identifisere mønstre eller tendenser, og effektivt sammenligne resultater på tvers av studiene. Bruk av programvare som RevMan (Review Manager), Comprehensive Meta-Analysis (CMA), eller statistiske pakker som R med relevante pakker for meta-analyse, støtter forskere i å organisere og analysere data på en effektiv måte. Disse verktøyene tilbyr funksjonalitet for å beregne samlede effektstørrelser, håndtere heterogenitet, utføre sensitivitetsanalyser og undersøke potensiell publikasjonsbias, blant andre analytiske oppgaver.

 

Verifisering av nøyaktigheten av den ekstraherte dataen mot de opprinnelige studiene er et annet sentralt trinn for å minimere risikoen for feil i meta-analysen. Dette innebærer en grundig gjennomgang av den samlede informasjonen for å sikre at dataene er korrekt overført fra kildematerialet. Dette steget bør ideelt sett utføres av flere medlemmer av forskerteamet uavhengig av hverandre for å sikre at eventuelle feil eller inkonsistenser blir identifisert og korrigert. I tillegg til å sikre nøyaktighet, hjelper systematisk datahåndtering oss med å opprettholde en høy grad av transparens gjennom forskningsprosessen. Ved å dokumentere nøyaktig hvordan dataene ble samlet, håndtert, og analysert, blir forskningsprosessen mer etterprøvbar for andre forskere, noe som er essensielt for den vitenskapelige metodens integritet.

 

Dataekstraksjonsfasen avsluttes med en grundig gjennomgang av den samlede informasjonen som er samlet. Dette gir oss mulighet til å identifisere eventuelle manglende data, vurdere behovet for ytterligere informasjon som må hentes via direkte kontakt med studieforfattere, og sikre at all nødvendig informasjon for analysen er tilgjengelig og korrekt. 

​​​

Statistisk analyse og syntese av data

 

Statistisk analyse og syntese av data utgjør kjernen i meta-analyser og spiller en avgjørende rolle i hvordan forskningsfunnene tolkes og forstås. Det er denne delen av forskningsprosessen som skiller meta-analyser fra andre former for oversiktsartikler. Denne prosessen involverer anvendelse av statistiske metoder for å kombinere resultater fra flere uavhengige studier, for dermed å trekke generelle konklusjoner basert på et større datagrunnlag enn det som er mulig med individuelle studier. Gjennomføringen av denne analysen krever nøye overveielse og metodisk grundighet for å sikre at syntesen er både pålitelig og gyldig (reliabel og valid).

 

Det første trinnet i statistisk analyse er å bestemme hvilken type effektstørrelse som skal brukes for å sammenligne studienes resultater. Effektstørrelsen representerer den kvantitative forskjellen eller sammenhengen som er observert i hver studie og kan variere avhengig av studienes natur og de utfallsmål som er undersøkt. Vanlige effektstørrelser inkluderer risikoratio (RR), oddsratio (OR), og standardisert middelforskjell (standardized mean difference (SMD)). Mye av dette arbeider kan gjennomføres via grundig plotting og analyser i ExCel eller SPSS, men den enkleste veien å gå er via software som er spesifikt designet for å håndtere data i sammenheng med meta-analyser. Eksempler på slik software finner du under:

RevMan (Review Manager): Utviklet av Cochrane Collaboration, er RevMan den standard programvaren som brukes for å forberede og vedlikeholde Cochrane Reviews. Den støtter utføringen av meta-analyser, inkludert beregning av effektstørrelser, heterogenitetstester, og generering av forest plots.

 

Comprehensive Meta-Analysis (CMA): En god og brukervennlig programvare som tilbyr et bredt spekter av statistiske analyser spesifikt for meta-analyser. CMA gjør det enkelt å utføre sensitivitetsanalyser, vurdere publikasjonsbias, og generere ulike grafiske representasjoner av data.

R med pakken "Meta": R er et gratis programmeringsspråk og program for statistisk databehandling og grafikk som har flere pakker tilgjengelige for meta-analyse, inkludert "Meta". Dette tilbyr fleksibilitet for mer tilpassede og avanserte analyser.

 

Aggregering av data

 

Aggregering av data i en meta-analyse innebærer å kombinere og syntetisere resultater fra ulike studier for å beregne en samlet effektstørrelse. Dette gjøres ved å veie hver studie sin bidrag basert på dens presisjon eller størrelse, som oftest målt ved standardfeil eller invers varians. Effektstørrelser fra individuelle studier transformeres til en felles metrikk, slik som risikoratio, oddsratio, eller SMD, avhengig av typen data og utfallsmål. Den veide gjennomsnittlige effektstørrelsen gir en indikasjon på styrken og retningen av den samlede effekten over de inkluderte studiene. Denne prosessen gjør det mulig for forskere å utlede konklusjoner basert på en bredere evidensbase enn det som ville vært mulig gjennom enkeltstudier.

Modell

 

Valget mellom en fasteffektmodell (fixed effects model) og en tilfeldigeffektmodell (random effects model) er et viktig beslutningspunkt i sammenheng med meta-analyser. Valget av modell avhenger av antagelsen om heterogenitet mellom studiene:

 

Fasteffektmodellen antar at effektstørrelsen er konstant over alle studiene, og at eventuelle forskjeller mellom studieresultatene skyldes tilfeldighet. Denne modellen er passende når man kan anta at studiene er så homogene at de i prinsippet studerer den samme effekten.

Tilfeldigeffektmodellen tar i betraktning at den sanne effektstørrelsen kan variere mellom studiene på grunn av forskjeller i studiedesign, populasjoner eller intervensjoner. Denne modellen er derfor mer egnet i situasjoner hvor det er en betydelig heterogenitet mellom studiene, og gir et bredere konfidensintervall som reflekterer denne usikkerheten.

Heterogenitet

 

Videre må heterogenitet mellom studienes resultater vurderes for å bestemme om det er passende å kombinere dem i en meta-analyse. Dette gjøres ofte ved hjelp av I²-statistikken og Q-testen, som kvantifiserer graden av heterogenitet og tester dens statistiske signifikans. Heterogenitet refererer til graden av variasjon i effektstørrelser mellom de inkluderte studiene i en meta-analyse. Det er viktig å vurdere heterogenitet for å bestemme hvorvidt det er hensiktsmessig å aggregerer studieresultatene og for å velge passende analytisk modell.  I²-statistikken er et kvantitativt mål på graden av heterogenitet, som indikerer prosentandelen av total variasjon mellom studiene som skyldes heterogenitet fremfor tilfeldighet. Høyere verdier indikerer mer heterogenitet. Q-testen undersøker om den observerte variasjonen mellom studiene er større enn det som ville forventes ved tilfeldighet alene. En signifikant Q-verdi indikerer tilstedeværelse av heterogenitet. Vurdering av heterogenitet er ikke bare viktig for valg av modell, men også for å identifisere mulige kilder til heterogenitet gjennom subgruppeanalyser eller meta-regresjon. Dette kan gi dypere innsikt i hvordan og hvorfor effekter varierer mellom studiene, og er sentralt for å tolke meta-analysens funn korrekt.

Et funnel plot er en grafisk metode for å undersøke mulig publikasjonsbias og annen systematisk skjevhet. I et funnel plot plottes effektstørrelsene fra de enkelte studiene på den horisontale aksen mot et mål for studiestørrelse eller presisjon (ofte standardfeilen) på den vertikale aksen. I fravær av publikasjonsbias og under forutsetning av at det ikke er annen systematisk skjevhet, forventes punktene å danne en traktformet distribusjon, med de mest presise studiene (typisk de største studiene) samlet nær den sanne effektstørrelsen, og mindre presise studier (ofte mindre studier) spredt bredere på begge sider. Asymmetri i dette plottet, for eksempel mangel på studier i området med lav effektstørrelse og høy presisjon, kan indikere publikasjonsbias.

 

Egger's test er en statistisk metode for å kvantifisere graden av asymmetri i et funnel plot og teste dens signifikans, som gir en mer objektiv vurdering av potensiell publikasjonsbias. Testen regner ut en regresjonsanalyse av effektstørrelsene på deres presisjon (eller standardfeil), og undersøker om skjæringspunktet signifikant avviker fra null. En signifikant avvik fra null indikerer tilstedeværelse av asymmetri og dermed potensiell publikasjonsbias. Både funnel plots og Egger's test er nyttige verktøy for å identifisere og vurdere potensiell publikasjonsbias, men de er ikke uten begrensninger. De kan være følsomme for andre former for skjevhet, som seleksjonsbias eller språkbias, og deres evne til å oppdage bias kan være begrenset i meta-analyser med få studier. Dessuten kan de ikke alltid skille mellom publikasjonsbias og andre kilder til asymmetri. Derfor bør disse metodene brukes som en del av en omfattende vurdering av bias, sammen med andre analyser og kritisk skjønn.

Konfidensintervall og effektstørrelser

 

Konfidensintervallet er et statistisk mål som gir et område rundt en estimert effektstørrelse, og som med en viss sannsynlighet (oftest 95%) inneholder den sanne effektstørrelsen. Konfidensintervallet gir en indikasjon på nøyaktigheten av estimatet og er avgjørende for å vurdere usikkerheten knyttet til forskningsfunnene. Et smalt konfidensintervall indikerer lav usikkerhet og høy presisjon i effektstørrelsesestimatet, mens et bredt konfidensintervall reflekterer høyere usikkerhet. Konfidensintervaller som krysser null, forteller oss som regel at det ikke er noen betydningsfull effekt vi kan være sikre på. I en meta-analyse hjelper konfidensintervallet oss med å forstå variabiliteten i effektene som er observert over de inkluderte studiene, og er essensielt for å tolke de samlede funnenes pålitelighet.

 

Effektstørrelsen i en meta-analyse representerer den kvantifiserte størrelsen av en effekt eller forskjell som er observert i de kombinerte studiene. Den tillater en direkte sammenligning av funnene på tvers av studier, selv når disse studiene har brukt ulike målemetoder eller skalaer. Effektstørrelser kan være uttrykt på forskjellige måter, for eksempel som risikoratio (RR), oddsratio (OR), eller SMD, avhengig av typen data og analysemål.

 

 

Effektstørrelsen, sammen med dens konfidensintervall, gir verdifull informasjon om den estimerte effektens størrelse og dens statistiske signifikans. En stor effektstørrelse med et konfidensintervall som ikke overlapper null indikerer en sterk og statistisk signifikant effekt. På den annen side, hvis konfidensintervallet inkluderer/krysser null, kan det indikere at effekten ikke er statistisk signifikant.

 

 

I sammenheng med meta-analyser, tillater effektstørrelser og konfidensintervaller oss å aggregere resultater fra ulike studier for å komme frem til en samlet konklusjon om et forskningsspørsmål. De gir et objektivt grunnlag for å sammenligne effekter på tvers av studier, uavhengig av studienes størrelse eller de spesifikke målemetodene som er brukt. Videre hjelper konfidensintervallene som er knyttet til de samlede effektstørrelsene med å vurdere sikkerheten eller usikkerheten rundt disse aggregerte estimatene, og spiller en viktig rolle i tolkningen og generaliseringen av meta-analysens funn. Når effektstørrelser og konfidensintervaller rapporteres og tolkes korrekt, tilbyr de verdifull innsikt i effektens størrelse og relevansen av forskningen, noe som er avgjørende for evidensbasert praksis og videre forskning. 

Konvetering META

Konverteringsverktøy

Dette verktøyet er designet for å hjelpe med å konvertere mellom ulike statistiske mål som ofte brukes i forskning. Det støtter blant annet konvertering mellom Cohen's d og korrelasjonskoeffisienten (r), samt konvertering mellom standardavvik (SD) og standardfeil (SE). Dette kan være spesielt nyttig når du arbeider med meta-analyser eller systematiske oversikter og inkluderte studier benytter ulike mål.

konvert.png

Cohen's d:

Et mål på effektstørrelse som ofte brukes for å indikere størrelsen på en effekt eller forskjell mellom to grupper eller måletidspunkt.

r (korrelasjonskoeffisient):

Måler styrken og retningen av en lineær relasjon mellom to variabler.

 

95% konfidensintervall (95% CI):

Dette angir intervallet hvor vi med en 95% sikkerhet kan si at utvalgets gjennomsnitt ligger innenfor.

Hedges' g:

Et mål på effektstørrelse som ofte brukes for å indikere størrelsen på en effekt eller forskjell mellom to grupper eller måletidspunkt. I motsetning til Cohen's d, tar denne høyde for små eller ulike utvalgsstørrelser.

Standardfeil (SE):

Estimerer hvor mye utvalgets gjennomsnittlige verdi forventes å avvike fra det sanne populasjonsgjennomsnittet.

Standardavvik (SD):

Et mål på variasjon eller spredning av et sett med verdier.

Vurdering av oversiktsartikler

 

Når man skal bruke oversiktsartikler som kilder er det gunstig å være bevisst over kvaliteten til studiene. Under finner du metoder og verktøy som hjelper deg å vurdere hvor pålitelige og relevante oversiktsartikler er

Når man skal vurdere kvaliteten på oversiktsartikler, er det viktig å ha klare kriterier og verktøy for å identifisere styrker, svakheter, og potensiell bias. Dette er essensielt for å kunne trekke pålitelige konklusjoner basert på tilgjengelig forskning. Under er en oversikt som dekker viktige aspekter ved vurdering av kvaliteten på slike artikler, samt en liste med aktuelle verktøy og sjekklister vi kan bruke for å vurdere kvaliteten og risiko for bias for oversiktsartikler.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Søkestrategi

 

En vurdering av studiens kvalitet på det systematiske søket er en god start for å vurdere den generelle metodiske kvalitet og risiko for bias. En grundig og metodisk søkestrategi er en sentral del av enhver oversiktsartikkel. For å oppnå en omfattende samling av relevant litteratur, er det viktig å inkludere de mest kjente databasene, samt noen ganger å inkludere flere fagspesifikke databaser og grå litteratur som konferanseabstracts, avhandlinger, og tekniske rapporter (altså litteratur som ikke er publisert i tradisjonelle tidsskrift).

 

Dette bidrar til å minimere risikoen for publikasjonsbias, en skjevhet som oppstår når resultatene av publiserte studier systematisk avviker fra de som forblir upubliserte. For å sikre at søkestrategien er både grundig og presis, bør den kombinere relevante søkeord og kontrollerte vokabularer, som MeSH-termer i PubMed, tilpasset de spesifikke spørsmålene oversikten søker å besvare. En detaljert dokumentasjon av søkeprosessen, inkludert søkeord, brukte databaser, og datoen for søket, er avgjørende for å muliggjøre reproduksjon av søket og dermed styrke studiens gjennomsiktighet og etterprøvbarhet.

Inklusjons- og eksklusjonskriterier

 

Inklusjons- og eksklusjonskriteriene er de definerende faktorene for omfanget av en oversiktsartikkel. Slike kriterier kan for eksempel inkludere deltakerkarakteristikker, intervensjon eller behandling, varighet eller studiedesign. Disse kriteriene må være nøye utformet for å sikre at kun studier som bidrar direkte til å besvare forskningsspørsmålet blir inkludert. En klar definisjon av disse kriteriene bidrar også til å redusere seleksjonsbias ved å sikre at inklusjonen av studier baseres på forhåndsbestemte og objektive kriterier fremfor subjektive vurderinger. Hvis vi derimot finner vage eller upresise kriterier i oversiktsartikler, vil det være problematisk å forsikre oss om at all relevant litteratur, og bare relevant litteratur, har blitt inkludert i artikkelen.

Kvalitetsvurdering av inkluderte studier

 

For å vurdere kvaliteten på de studiene som er inkludert i en oversikt, er det nødvendig å gjennomføre en grundig kvalitetsvurdering. Dette innebærer en evaluering av studienes metodologi, inkludert studiendesign, utvalgstørrelse, og metoder for datainnsamling og analyse. Eventuelle konflikter av interesse og forfatternes håndtering av potensielle kilder til bias bør også undersøkes. Dette trinnet er avgjørende for å bestemme påliteligheten av de inkluderte studienes funn og for å identifisere studier med høy risiko for bias som kan påvirke oversiktens samlede konklusjoner.

 

Som "brukere" av oversiktsartikler er det ikke vår jobb å gjennomføre denn kvalitetsvurderingen av de originale artiklene, men vi skal forsikre oss om at det har blitt gjort av forfatterne av oversiktsartiklene og vi må være bevisst over den rapporterte kvaliteten som evidensen bygger på. Som brukere av oversiktsartikler har vi derimot muligheten til å gjøre direkte vurderinger av oversiktsartiklenes metodiske kvalitet og risiko for bias, gjerne ved å bruke verktøyene nedenfor. 

Dataekstraksjon og -syntese

 

Her kreves en systematisk tilnærming for å sikre at all relevant informasjon blir nøyaktig samlet inn fra de inkluderte studiene. For kvantitative meta-analyser innebærer dette bruk av statistiske metoder for å beregne samlede effektstørrelser basert på de individuelle studienes resultater. For kvalitative oversikter kan dette omfatte syntese av tematiske funn for å identifisere felles trekk og forskjeller på tvers av studier. Denne prosessen må utføres på en metodisk og transparent måte for å sikre at resultatene er gyldige og pålitelige. Vi ser ofte etter at dette har blitt gjort systematisk basert på predefinerte kriterier, samt gjennomført av minst to uavhengige forskere.

Samlet sett krever en grundig vurdering av kvaliteten på oversiktsartikler en detaljert og systematisk tilnærming til hvert trinn i prosessen, fra litteratursøk til dataekstraksjon og -syntese. Ved å følge etablerte metodologiske retningslinjer og benytte seg av anerkjente verktøy for kvalitetsvurdering, kan forskere sikre at deres oversiktsartikler gir et pålitelig grunnlag for videre forskning og informerte beslutninger i praksis. Under går vi videre på spesifikke verktøy som kan benyttes for å vurdere både kvalitet og bias i oversiktsartikler.

napkin-selection (1).png

Sjekklister for vurdering av metodisk kvalitet og risiko for bias

Bruk av sjekklister for kvalitetsvurdering sikrer en systematisk gjennomgang av viktige aspekter ved studiens design, gjennomføring, og rapportering av funnene. Sjekklister tilbyr metodiske rammeverk med verdifulle retningslinjer for å sikre grundighet og transparens gjennom hele forskningsprosessen. Disse verktøyene støtter forskere i å utføre systematiske og objektive evalueringer av både artikkelens metodologi og den rapporterte dataens integritet.

 

PRISMA-sjekklisten (Preferred Reporting Items for Systematic Reviews and Meta-Analyses) er en omfattende guide for rapportering av systematiske oversikter og meta-analyser. Ved å følge PRISMA, kan forfattere sikre at de inkluderer all nødvendig informasjon for at leserne effektivt kan vurdere studiens gyldighet og pålitelighet. PRISMA fremhever betydningen av en tydelig definert søkestrategi, inklusjons- og eksklusjonskriterier, metoden for dataekstraksjon, og tilnærmingen til kvalitetsvurdering, blant andre nøkkelelementer.

 

AMSTAR (A MeaSurement Tool to Assess Systematic Reviews) er en sjekkliste spesifikt designet for å vurdere kvaliteten på systematiske oversikter. AMSTAR fokuserer på aspekter som forhåndsregistrering av studieprotokollen, omfattende litteratursøk, dobbel dataekstraksjon for å redusere feil, og en kritisk vurdering av studienes vitenskapelige kvalitet.

 

CASP (Critical Appraisal Skills Programme) er et verktøy designet for å hjelpe brukere med å kritisk vurdere og tolke systematiske oversiktsartikler. Det legger vekt på nøkkelelementer som er avgjørende for å vurdere en oversiktsartikkels kvalitet og relevans. Ved å stille en rekke målrettede spørsmål, guider CASP Checklist brukerne gjennom en grundig evaluering av artikkelens metodologiske tilnærming for å fremme en dypere forståelse av styrkene og begrensningene i systematiske oversikter, og støtter informerte beslutninger basert på forskning.

Identifisering og håndtering av bias er en kritisk komponent i kvalitetsvurderingen av oversiktsartikler. Bias kan forvrenge forskningsfunn og føre til feilaktige konklusjoner. Bruken av sjekklister og verktøy for vurdering av kvaliteten og bias i oversiktsartikler er avgjørende for å fremme vitenskapelig integritet og påliteligheten av konklusjoner basert på samlede studiefunn. Ved å nøye vurdere disse aspektene, kan forskere og praktikere bidra til et mer transparent og robust forskningsmiljø, hvor beslutninger kan tas på et godt informert grunnlag. For å maksimere nytten av slike verktøy, er det viktig at de anvendes konsekvent og grundig gjennom hele forskningsprosessen, fra planleggingen av oversiktsartikkelen til dens endelige rapportering og publisering.

 

Cochrane-samarbeidets verktøy (RoB 2) for vurdering av risiko for bias på en rekke potensielle kilder til bias, inkludert seleksjonsbias, rapporteringsbias, og publikasjonsbias. Dette verktøyet oppmuntrer til en nøye evaluering av hvordan studier er valgt, hvordan data er samlet og analysert, og hvordan resultatene er rapportert.

 

ROBIS (Risk Of Bias In Systematic reviews), er et verktøy designet for å vurdere risikoen for bias i systematiske oversikter selv. ROBIS tar for seg spørsmål relatert til studieprotokollen, interessekonflikter, og inklusjonen av relevante studier, og tilbyr en strukturert tilnærming til å identifisere potensiell bias som kan påvirke oversiktens konklusjoner.

PEDro-skalaen er spesifikt utviklet for å vurdere kvaliteten på randomiserte kontrollerte forsøk (RCTer), særlig innen fysioterapi (men kan også brukes innen andre, lignende fagfelt som for eksempel helse, trening eller ernæring). Skalaen består av 11 kriterier som dekker ulike aspekter av studiens metodologi, inkludert intern og ekstern validitet, samt risiko for bias. 
 

På samme måte som forfattere av oversiktsartikler bør gjennomføre slike arbeid i samarbeid med flere, bør også vi som vurderer kvaliteten til oversiktsartikler være minst to personer som gjør vurderingene. Dette er med å sikre objektivitet og minimere forekomsten av menneskelige feil i vurderingene.

bottom of page