Literatuurreview · Snelle survey

Krijg eerst grip op een medisch onderwerp voordat je 40 papers leestmet een gestructureerde literatuursurvey

Als je AI alleen vraagt om "de literatuur over X samen te vatten", krijg je meestal generieke alinea's, zwakke brondiscipline en vage zinnen als "meer onderzoek is nodig". Voor echt medisch onderzoekswerk is dat niet genoeg.

Deze pagina volgt de echte workflow van het project: eerst het veld in kaart brengen en daarna beslissen wat je moet lezen, waar het bewijs nog zwak is en welke volgende onderzoekslijn de moeite waard is. Quick Literature Survey geeft een korte, controleerbare en bruikbare verkenning terug in plaats van een lang vaag stuk tekst.

Gebruik gratis template

Hoe de template het werk verdeelt

Je vult alleen onderwerp en uitvoertaal in. Regels voor bewijskwaliteit en outputstructuur zitten er al in.

Wat jij invult

  • Onderzoeksonderwerp: Voer de ziekte, interventie, methodologische vraag of het grensgebied in dat je snel wilt verkennen.
  • Voorkeurstaal: De volledige verkenning wordt geschreven in je voorkeurstaal, bijvoorbeeld Nederlands, zodat je die direct kunt gebruiken in overleg of verslag.

Al ingebouwd

  • Geeft voorrang aan PubMed, Cochrane, tijdschriften met hoge impact en sterke bewijsvormen zoals RCT's, systematische reviews en meta-analyses
  • Vereist Title, Journal, Year en PMID/DOI voor elk genoemd artikel en markeert onzekere details expliciet
  • Als het onderwerp te breed is, vernauwt het naar klinisch relevante of snelst groeiende deelgebieden
  • Dwingt onderzoekskansen voort te komen uit echte tegenstrijdigheden of concrete beperkingen, niet uit storytelling
  • Houdt het antwoord tussen 500 en 800 woorden zodat het werkt als snelle oriëntatie

Hetzelfde onderwerp, twee manieren van vragen

Het echte verschil is niet of AI kan samenvatten, maar of het resultaat controleerbaar en bruikbaar is.

Vraag het direct aan AI

Wat je naar AI stuurt

Vat de literatuur samen over GLP-1-receptoragonisten en cardiovasculaire bescherming.

Typisch resultaat

- Noemt brede thema's maar vertelt niet welke papers echt belangrijk zijn
- Geeft geen PMID/DOI voor snelle controle
- Zegt alleen "meer onderzoek is nodig" zonder concrete lacune

Na het lezen weet je nog steeds niet wat je als volgende moet lezen.
Gebruik de template

Ingevulde variabelen

Onderwerp: GLP-1-receptoragonisten en cardiovasculaire bescherming
Voorkeurstaal: Nederlands

Gestructureerde output

1. Onderzoekshotspots
   - ASCVD-uitkomststudies
   - HFpEF en mechanismen van gewichtsverlies

2. Representatieve artikelen
   - Title, Journal, Year, PMID/DOI
   - Waarom ze eerst gelezen moeten worden

3. Onderzoekskansen
   - Elke kans is verankerd in een echte tegenstrijdigheid of beperking
   - Inclusief nieuwheidswaarde en haalbaarheid

4. Huidige beperkingen
   - Beperkte generaliseerbaarheid
   - Korte follow-up of inconsistente methoden

Wat je uit één run haalt

Deze output komt rechtstreeks uit de werkelijke structuur van de quick-literature-survey-prompt.

Onderzoekshotspots

Laat de actiefste deelgebieden van de afgelopen 2-3 jaar zien zodat je ziet waar het veld naartoe beweegt.

Representatieve artikelen

Je krijgt een geprioriteerde leeslijst met Title, Journal, Year en PMID/DOI.

Onderzoekskansen

Gaat verder dan "meer onderzoek is nodig" en benoemt concrete volgende vragen uit echte tegenstrijdigheden of beperkingen.

Huidige beperkingen

Maakt zichtbaar waar de bewijsbasis nog zwak is zodat je kunt beslissen of je dieper moet lezen of naar studiedesign gaat.

Zo gebruik je het

01

Vul onderwerp en taal in

Beschrijf het onderwerp dat je wilt verkennen en kies de uitvoertaal. Hoe specifieker, hoe bruikbaarder het resultaat.

02

Plak het in AI met zoeken

Stuur de gegenereerde prompt naar ChatGPT, Claude of een ander model met web- of PubMed-zoekfunctie.

03

Bepaal de volgende stap

Controleer eerst de sleutelartikelen en beslis daarna of je verder leest, naar PICO gaat of de onderwerpkeuze bijstelt.

Snel literatuuronderzoekGratis

Breng hotspots, representatieve artikelen en echte onderzoekskansen rond elk medisch onderwerp in minder dan 800 woorden in kaart. Gemaakt voor snelle oriëntatie voordat je dieper leest.

Gebruik gratis template

Veelgestelde vragen

Zijn de citaties altijd correct?

De prompt dwingt AI om Title, Journal, Year en PMID/DOI te geven wanneer mogelijk en onzekere details te markeren. Maar AI kan nog steeds fouten maken, dus controleer belangrijke referenties in PubMed of Google Scholar.

Welke onderwerpen werken het best?

Specifieke klinische of methodologische onderwerpen werken het best. "machine learning bij diabetesdiagnostiek" geeft betere output dan alleen "diabetes". Te brede onderwerpen worden versmald naar de actiefste deelgebieden.

Kan ik dit gebruiken als volledige literatuurreview voor mijn scriptie?

Nee, niet als volledige vervanging. Het is bedoeld voor snelle oriëntatie en vroege verkenning. Voor scriptiewerk heb je nog steeds eigen systematische zoekacties en volledige tekstlezing nodig.

Hoe betrouwbaar zijn de voorgestelde onderzoekskansen?

Ze zijn betrouwbaarder dan een generieke samenvatting omdat elke kans moet voortkomen uit gedocumenteerde tegenstrijdigheden of beperkingen. Maar het blijft een hypothese totdat je de lacune in PubMed hebt gecontroleerd.

Hoe maak ik van het resultaat de volgende onderzoeksstap?

Kies 1 of 2 interessante kansen, controleer ze in PubMed en voer ze daarna in in de PICO Question Builder van het platform om er formele onderzoeksvragen van te maken.