AI som forskningsassistent

Att förhålla sig till, bygga vidare på, eller utmana det rådande forskningsläget är grundläggande inom vetenskapen. Givet att den forskning man potentiellt kan ta del av och förhålla sig till ständigt ökar är detta en utmaning. Digitaliseringen har förvisso medfört att vi i princip slipper söka efter tidigare forskning i papperstidskrifter och böcker, men har också gjort att vi fått upp ögonen för hur otroligt mycket forskning det finns att förhålla sig. Den insikten tycks ha lett till att det blivit allt viktigare att skriva forskningsöversikter inom området man studerar. Metastudier och ”systematic literature reviews” är vanliga inom STEM-vetenskaperna (science, technology, engineering and mathematics), medan man inom humaniora vanligtvis nöjer sig med att baka in ett avsnitt om forskningsläget i artikelns inledning.

Att identifiera de mest relevanta akademiska databaserna för utsökningen av litteratur och formulera de mest träffsäkra söksträngarna med hjälp av booleska operatorer kan vara tidskrävande, särskilt om man inte riktigt hittat fokus för sin undersökning ännu; då är risken stor att överväldigas av mängden träffar. Nyligen har dock en uppsättning nya forskningsassistenter bygga på Artificiell intelligens gjort entré.

Mängder av AI-verktyg som lovar forskare hjälp att identifiera och sammanställa den mest relevanta och bästa tidigare forskningen inom deras aktuella område har på kort tid uppkommit. Som väntat är dessa ofta inriktade mot de vetenskapsområden med mest pengar: STEM-vetenskaperna. En viktigt skillnad att ha i åtanke när man använder dem som humanist är att exempelvis en medicinare som skriver en forskningsöversikt enbart kommer att använda sig av artiklar från vetenskapliga tidskrifter som är författade de senaste åren; i princip ingen bryr sig om vad demensforskningen på 1990-talet hade att komma med. För en humanist är det annorlunda. Vi kommer att ta böcker och äldre forskning i beaktande, och AI-verktygen indexerar inte alltid böcker och äldre tidskriftsartiklar. Att helt ersätta traditionell digital utsökning av forskningslitteratur med AI är det alltså inte tal om. Frågan är: Kan AI-verktygen effektivisera processen och komplettera den traditionella litteratursökningen?

Semantic scholar påminner en del om en kombination av Spotify och traditionella forskningsdatabaser som Google scholar, Web of Science och Scopus. Likt de senare har Semantic scholar en mycket välfylld databas: över 200 miljoner artiklar. Alla verktyg nedan (utom ChatPDF) hämtar sin data från Semantic scholar, som också är bland de största, äldsta och populäraste verktygen. En icke-vinstdrivande organisation står bakom verktyget som också samarbetar med många universitet, vilket lovar gott. Jag loggar in på det genom mitt konto på Lunds universitet. Genom att spara artiklarna man söker fram i olika ”spellistor” (för att odla liknelsen med Spotify) ges rekommendationer om potentiellt relevant forskning. Detta är såklart smidigt och gör att man lätt kan hålla sig ajour med den senaste forskningen inom relevanta områden. Mitt intryck är att Semantic scholar potentiellt kan vara bland de bästa AI-verktygen, även om nyhetsvärdet inte är lika slående som i verktygen jag diskuterar nedan. Det framstår som en upphottad version av traditionell digital litteratursökning.

Ett smidigt verktyg är Chat PDF som låter en ladda upp en pdf och då får en kort sammanfattning av innehållet och förslag på följdfrågor. Man kan själv välja att formulera frågor i naturligt språk på så sätt chatta med pdf:en. Det gör att man kan bedöma relevansen i artikeln och hitta det som är mest intressant för en själv – exempelvis hur författaren definierar vissa begrepp eller förhåller sig till tidigare forskning – väldigt snabbt. Givetvis går det även att använda inte bara för forskningsartiklar, utan också för ens källmaterial (men i den inloggningsfria gratisversionen kan man inte ladda upp för stora pdf:er). Samma funktion finns i ett par av de andra AI-verktygen, men om detta är den enda funktion man är ute efter så är Chat PDF ett bra alternativ. Verktyget hjälper en att att snabbt bedöma om en viss text är relevant för ens forskning eller inte.

Consensus ger, som namnet antyder, en bild av vad som är konsensus i en viss forskningsfråga. Man formulerar sin fråga i naturligt språk och får en välstrukturerad sammanfattning med referenser som svar. Därtill förslag på följdfrågor, som man också kan välja att få besvarade. Eftersom inte böcker tas i beaktande blir sammanställningen inte alltid helt rättvisande, men det ger ändå en snabb överblick, tips om forskningsartiklar och ingångar att bygga vidare på.

Inciteful syftar till att snabba upp sökning av forskningslitteratur. Utgångspunkten är att man redan har identifierat en eller två artiklar som behandlar ens forskningsämne, exempelvis genom att använda Consensus. När man matar in titel eller doi i Inciteful ges en mängd förslag på liknande artiklar, baserat på abstracts från artiklar i Semantic scholar. Man lägger lätt till de som verkar intressanta – de flesta är oftast inte det – och gör om sökningen. När man upprepat processen ett par gånger, vilket går väldigt snabbt, har man inte bara identifierat ett gäng potentiellt intressanta artiklar, utan dessa rankas även utifrån relevans (baserat på det trubbiga måttet ”antal citeringar”). Därtill får man också listor med exempelvis ”top authors” och ”top journals”, som inte alltid är helt representativa, men ändå kan hjälpa en att få visst grepp om fältet. Litteratursökningen blir inte lika uttömmande som om man gör den på traditionell väg och behöver därför kompletteras för en fullständig överblick av forskningsfältet. Snabbheten och smidigheten gör ändå att Inciteful är väldigt hjälpsam.

Man kommer rätt långt med en kombination av Consensus, Inciteful och ChatPDF (förslagsvis använda i den ordningen). Semantic Scholar är som sagt mer komplicerad. Det är även Elicit och Undermind, som också är två bra alternativ. De är båda mer nyskapande och lättanvända än Semantic Scholar.

Liksom Consensus använder Elicit inte söksträngar, utan man formulerar en fråga i naturligt språk. Oavsett vad man skriver erbjuder Elicit tre alternativa formuleringar: en mer specificerad, en fokuserad på komparation, och en på metodologi. Även om man inte alltid vill använda någon av dessa kan de vara till värdefull hjälp för att skärpa ens forskningsfråga. Efter att man formulerat sin fråga kan man välja att antingen få en lista på artiklar eller en ”research report”, det vill säga utkast till en forskningsöversikt. Den senare är i gratisversionen baserad på abstracts från högst 10 artiklar valda från de 50 mest relevanta träffarna (baserat på vad Semantic scholar indexerar). Även om man väljer det första alternativet, att få en lista av artiklar, får man en kort sammanfattning av deras abstracts vid sidan om titeln och därtill en kort sammanfattning av forskningsläget. I den mer omfattande ”research reporten”, som tar ett par minuter att sammanställa, får man både en kort skriven sammanfattning och en mycket användbar tabell där relevanta forskningsartiklar kategoriseras utifrån sådant som ”research focus”, ”study type”, ”key concepts” och ”methodological approach”. Ett plus är att man kan få sammanställningen som pdf.

Elicit är mer tidskrävande och ger en mer rigorös sammanställning än Consensus. Undermind är ett liknande alternativ, som även den bygger på Semantic scholars data. Undermind sammanställer inte direkt svaret på ens fråga, utan ställer ett par följdfrågor. Efter att man svarat på dessa föreslås en omformulering, som man kan godta eller revidera. Den här funktionen kan vara till hjälp när man inte riktigt har hittat fokus för sin undersökning ännu. Liksom i Elicit tar sammanställning av resultatet ett par minuter, men är i gengäld väldigt utförligt. En funktion jag gillar i Undermind är att man får en tidslinje över när de mest relevanta studierna är gjorda samt en överblick av hur forskningsfältet förändrats över tid. Därtill en lista av ”foundational works”, alltså de texter som oftast refereras av de mest relevanta studierna på fältet.

Jag har provat några ytterligare AI-verktyg, men de ovan tycker jag verkar mest lovande. Just nu, i alla fall. Utvecklingen går väldigt snabbt, så vem vet hur det ser ut om ett par månader. Jag har testat alla verktyg på samma exempel: Vad forskningen säger om John Deweys historiefilosofi. Det är ett område jag kan rätt bra och dessutom har gjort en egen forskningsöversikt om, baserad på traditionell litteratursökning genom Google scholar (som alltid bör kompletteras med en sökning genom ens universitetsbibliotek, men det har jag inte hunnit ännu). Det jag kan konstatera är att AI-verktygen lyckas identifiera i stort sett samma artiklar som jag, plus ytterligare någon jag missat. Däremot är en begränsning som sagt att AI-verktygen missar böcker. Jag tycker att de summerar forskningsläget helt okej, men än så länge är jag bättre (heja mig!).

Som komplement till en traditionell utsökning av tidigare forskning har jag ändå förhoppningar på AI-verktygen. En stor fördel är att de kan snabbt kan hjälpa en få en översiktlig bild av ett forskningsområde och även kan hjälpa en att skärpa sin frågeställning. Medan det är hyfsat lätt att orientera sig i forskningen på traditionell väg utifrån en avgränsad frågeställning, kan det bli överväldigande om man inte riktigt har hittat fram till sin studies fokus ännu. Det är i de senare fallen jag tror att AI-verktygen kan vara till störst nytta.