AI som forskningsassistent

Att förhålla sig till, bygga vidare på, eller utmana det rådande forskningsläget är grundläggande inom vetenskapen. Givet att den forskning man potentiellt kan ta del av och förhålla sig till ständigt ökar är detta en utmaning. Digitaliseringen har förvisso medfört att vi i princip slipper söka efter tidigare forskning i papperstidskrifter och böcker, men har också gjort att vi fått upp ögonen för hur otroligt mycket forskning det finns att förhålla sig. Den insikten tycks ha lett till att det blivit allt viktigare att skriva forskningsöversikter inom området man studerar. Metastudier och ”systematic literature reviews” är vanliga inom STEM-vetenskaperna (science, technology, engineering and mathematics), medan man inom humaniora vanligtvis nöjer sig med att baka in ett avsnitt om forskningsläget i artikelns inledning.

Att identifiera de mest relevanta akademiska databaserna för utsökningen av litteratur och formulera de mest träffsäkra söksträngarna med hjälp av booleska operatorer kan vara tidskrävande, särskilt om man inte riktigt hittat fokus för sin undersökning ännu; då är risken stor att överväldigas av mängden träffar. Nyligen har dock en uppsättning nya forskningsassistenter bygga på Artificiell intelligens gjort entré.

Mängder av AI-verktyg som lovar forskare hjälp att identifiera och sammanställa den mest relevanta och bästa tidigare forskningen inom deras aktuella område har på kort tid uppkommit. Som väntat är dessa ofta inriktade mot de vetenskapsområden med mest pengar: STEM-vetenskaperna. En viktigt skillnad att ha i åtanke när man använder dem som humanist är att exempelvis en medicinare som skriver en forskningsöversikt enbart kommer att använda sig av artiklar från vetenskapliga tidskrifter som är författade de senaste åren; i princip ingen bryr sig om vad demensforskningen på 1990-talet hade att komma med. För en humanist är det annorlunda. Vi kommer att ta böcker och äldre forskning i beaktande, och AI-verktygen indexerar inte alltid böcker och äldre tidskriftsartiklar. Att helt ersätta traditionell digital utsökning av forskningslitteratur med AI är det alltså inte tal om. Frågan är: Kan AI-verktygen effektivisera processen och komplettera den traditionella litteratursökningen?

Semantic scholar påminner en del om en kombination av Spotify och traditionella forskningsdatabaser som Google scholar, Web of Science och Scopus. Likt de senare har Semantic scholar en mycket välfylld databas: över 200 miljoner artiklar. Alla verktyg nedan (utom ChatPDF) hämtar sin data från Semantic scholar, som också är bland de största, äldsta och populäraste verktygen. En icke-vinstdrivande organisation står bakom verktyget som också samarbetar med många universitet, vilket lovar gott. Jag loggar in på det genom mitt konto på Lunds universitet. Genom att spara artiklarna man söker fram i olika ”spellistor” (för att odla liknelsen med Spotify) ges rekommendationer om potentiellt relevant forskning. Detta är såklart smidigt och gör att man lätt kan hålla sig ajour med den senaste forskningen inom relevanta områden. Mitt intryck är att Semantic scholar potentiellt kan vara bland de bästa AI-verktygen, även om nyhetsvärdet inte är lika slående som i verktygen jag diskuterar nedan. Det framstår som en upphottad version av traditionell digital litteratursökning.

Ett smidigt verktyg är Chat PDF som låter en ladda upp en pdf och då får en kort sammanfattning av innehållet och förslag på följdfrågor. Man kan själv välja att formulera frågor i naturligt språk på så sätt chatta med pdf:en. Det gör att man kan bedöma relevansen i artikeln och hitta det som är mest intressant för en själv – exempelvis hur författaren definierar vissa begrepp eller förhåller sig till tidigare forskning – väldigt snabbt. Givetvis går det även att använda inte bara för forskningsartiklar, utan också för ens källmaterial (men i den inloggningsfria gratisversionen kan man inte ladda upp för stora pdf:er). Samma funktion finns i ett par av de andra AI-verktygen, men om detta är den enda funktion man är ute efter så är Chat PDF ett bra alternativ. Verktyget hjälper en att att snabbt bedöma om en viss text är relevant för ens forskning eller inte.

Consensus ger, som namnet antyder, en bild av vad som är konsensus i en viss forskningsfråga. Man formulerar sin fråga i naturligt språk och får en välstrukturerad sammanfattning med referenser som svar. Därtill förslag på följdfrågor, som man också kan välja att få besvarade. Eftersom inte böcker tas i beaktande blir sammanställningen inte alltid helt rättvisande, men det ger ändå en snabb överblick, tips om forskningsartiklar och ingångar att bygga vidare på.

Inciteful syftar till att snabba upp sökning av forskningslitteratur. Utgångspunkten är att man redan har identifierat en eller två artiklar som behandlar ens forskningsämne, exempelvis genom att använda Consensus. När man matar in titel eller doi i Inciteful ges en mängd förslag på liknande artiklar, baserat på abstracts från artiklar i Semantic scholar. Man lägger lätt till de som verkar intressanta – de flesta är oftast inte det – och gör om sökningen. När man upprepat processen ett par gånger, vilket går väldigt snabbt, har man inte bara identifierat ett gäng potentiellt intressanta artiklar, utan dessa rankas även utifrån relevans (baserat på det trubbiga måttet ”antal citeringar”). Därtill får man också listor med exempelvis ”top authors” och ”top journals”, som inte alltid är helt representativa, men ändå kan hjälpa en att få visst grepp om fältet. Litteratursökningen blir inte lika uttömmande som om man gör den på traditionell väg och behöver därför kompletteras för en fullständig överblick av forskningsfältet. Snabbheten och smidigheten gör ändå att Inciteful är väldigt hjälpsam.

Man kommer rätt långt med en kombination av Consensus, Inciteful och ChatPDF (förslagsvis använda i den ordningen). Semantic Scholar är som sagt mer komplicerad. Det är även Elicit och Undermind, som också är två bra alternativ. De är båda mer nyskapande och lättanvända än Semantic Scholar.

Liksom Consensus använder Elicit inte söksträngar, utan man formulerar en fråga i naturligt språk. Oavsett vad man skriver erbjuder Elicit tre alternativa formuleringar: en mer specificerad, en fokuserad på komparation, och en på metodologi. Även om man inte alltid vill använda någon av dessa kan de vara till värdefull hjälp för att skärpa ens forskningsfråga. Efter att man formulerat sin fråga kan man välja att antingen få en lista på artiklar eller en ”research report”, det vill säga utkast till en forskningsöversikt. Den senare är i gratisversionen baserad på abstracts från högst 10 artiklar valda från de 50 mest relevanta träffarna (baserat på vad Semantic scholar indexerar). Även om man väljer det första alternativet, att få en lista av artiklar, får man en kort sammanfattning av deras abstracts vid sidan om titeln och därtill en kort sammanfattning av forskningsläget. I den mer omfattande ”research reporten”, som tar ett par minuter att sammanställa, får man både en kort skriven sammanfattning och en mycket användbar tabell där relevanta forskningsartiklar kategoriseras utifrån sådant som ”research focus”, ”study type”, ”key concepts” och ”methodological approach”. Ett plus är att man kan få sammanställningen som pdf.

Elicit är mer tidskrävande och ger en mer rigorös sammanställning än Consensus. Undermind är ett liknande alternativ, som även den bygger på Semantic scholars data. Undermind sammanställer inte direkt svaret på ens fråga, utan ställer ett par följdfrågor. Efter att man svarat på dessa föreslås en omformulering, som man kan godta eller revidera. Den här funktionen kan vara till hjälp när man inte riktigt har hittat fokus för sin undersökning ännu. Liksom i Elicit tar sammanställning av resultatet ett par minuter, men är i gengäld väldigt utförligt. En funktion jag gillar i Undermind är att man får en tidslinje över när de mest relevanta studierna är gjorda samt en överblick av hur forskningsfältet förändrats över tid. Därtill en lista av ”foundational works”, alltså de texter som oftast refereras av de mest relevanta studierna på fältet.

Jag har provat några ytterligare AI-verktyg, men de ovan tycker jag verkar mest lovande. Just nu, i alla fall. Utvecklingen går väldigt snabbt, så vem vet hur det ser ut om ett par månader. Jag har testat alla verktyg på samma exempel: Vad forskningen säger om John Deweys historiefilosofi. Det är ett område jag kan rätt bra och dessutom har gjort en egen forskningsöversikt om, baserad på traditionell litteratursökning genom Google scholar (som alltid bör kompletteras med en sökning genom ens universitetsbibliotek, men det har jag inte hunnit ännu). Det jag kan konstatera är att AI-verktygen lyckas identifiera i stort sett samma artiklar som jag, plus ytterligare någon jag missat. Däremot är en begränsning som sagt att AI-verktygen missar böcker. Jag tycker att de summerar forskningsläget helt okej, men än så länge är jag bättre (heja mig!).

Som komplement till en traditionell utsökning av tidigare forskning har jag ändå förhoppningar på AI-verktygen. En stor fördel är att de kan snabbt kan hjälpa en få en översiktlig bild av ett forskningsområde och även kan hjälpa en att skärpa sin frågeställning. Medan det är hyfsat lätt att orientera sig i forskningen på traditionell väg utifrån en avgränsad frågeställning, kan det bli överväldigande om man inte riktigt har hittat fram till sin studies fokus ännu. Det är i de senare fallen jag tror att AI-verktygen kan vara till störst nytta.

Idéhistoria i förvandling 5: Digitalhistoria

Historien förlängs varje ögonblick och det finns idag fler aktiva historiker än någonsin tidigare. Detta innebär att historikerns potentiella källmaterial är ständigt växande. Likaså den mängd tidigare forskning historikern måste förhålla sig till. Tack och lov har digitaliseringen av arkivmaterial, dagspress, tidskrifter och böcker gjort historikerns (liksom många andra forskares) arbete smidigare. Materialet blir mer åtkomligt och många gånger även sökbart, vilket underlättar när vi ska navigera i det. Att orientera sig bland databaser och digitala kataloger – och att använda dem på bästa sätt när man väl hittat rätt – är dock inte helt lätt och att öva oss själva och våra studenter i detta är en viktig utmaning för historiker idag.

Digitaliserat källmaterial och korpus (alltså textsamlingar sammanställda i ett visst syfte – här är ett exempel) medför metodologiska möjligheter som potentiellt kan effektivisera arbetet och möjliggöra storskalig forskning och historiska synteser. Genom digitala metoder kan vi göra fjärrläsningar (distant readings) som kan komplettera eller kombineras med humanisters traditionella närläsningar (close readings). Digitalisering möjliggör även (inte alltid oproblematisk) visualisering samt kvantifiering och därmed generalisering. Det kan även hjälpa oss att exempelvis urskilja konjunkturerna för ett visst begrepp. I detta fall är det lätt att på några minuter ta fram statistik. Genom Google ngram eller Hathi Trusts bookworm kan man notera att begreppet ”liberalism” i engelskan ökar kraftigt efter 1859, då det liberala partiet bildas och John Stuart Mills Om Friheten publiceras. Genom att söka i Mediearkivet eller Svenska dagstidningar ser jag att begreppet ”vänsterliberalism” ökat i svensk press sedan 2017 och att ”kulturmarxist” slog igenom strax efter Anders Behring Breiviks terrordåd i Oslo 2011. Genom Hansard corpus of British parliament noterar jag att förekomsten av ”crisis” ökade kraftigt i det brittiska parlamentet under 1910-talet. Dessa korpus och metoder förbättras ständigt, men är inte fläckfria. Dessutom säger ju ords frekvens inget om dess användning, vilket ofta är vad historikern vill komma åt. Jag menar ändå att dessa metoder kan fungera som stöd i våra analyser eller hjälpa oss att identifiera intressanta brytpunkter som förtjänar att undersökas närmare.

När jag häromveckan var på ett digitalhistoriskt seminarium på temat ”When did Digital History start?” drogs startpunkten hela vägen tillbaka till Frank Owsleys Plain Folk (1949). Det sades att kvantitativ och statistisk, särskilt ekonomisk och socialhistoria, växte under 1950-talet, för att de följande två decennierna gå under beteckningen Cliometrics. Under 1980-talet kom mjukvara för historiker och under 1990-talet databaser. I nyutkomna numret av Lychnos, som har tema digital historia, framhålls skapandet av Virginia Center for Digital History 1997-1998 som en central händelse. Sedan dess har digitalhistoria (och digital humaniora) fått en allt mer etablerad infrastruktur. I Sverige är det nyligen upprättade Huminfra ett exempel. Under 2000-talet har vi även fått texter som genom OCR-teknik är digitalt sökbara, samt digitaliserade källor genom exempelvis Europeana och Google books. Anarkistiskt lagda akademiker gläds över nystartade Anna’s Archive. Som nybliven släktforskare är jag tacksam över ArkivDigital. När jag skrev min avhandling var det otroligt hjälpsamt att ha alla John Deweys utgivna texter och privata korrespondens tillgänglig digitaliserad och sökbar genom InteLex Past Masters.

Digitaliseringen har legat till grund för en mängd nya metoder som fjärrläsning och temamodellering (topic modeling), samt lett till att historiker lär sig programmering i exempelvis AntConc, Python och R. När man använder termen ”digitalhistoria” åsyftar man vanligen historiker som ägnar sig åt dylikt, vilket ligger utanför vad historiker konventionellt sysslar med. Men eftersom alla historiker i någon mån använder digitala resurser i växande utsträckning har det ifrågasatts om begreppet alls behövs (vilket har fått vissa att istället tala om ”computational history”). Denna typ av forskning har givetvis kritiserats. Dels för att försöka förvandla historia till ”hard science”, dels för att låta metoderna, verktygen och materialtillgången styra forskningsfrågorna. Kritiken är rimlig. Jag har sett många exempel på coola visualiseringar och grafer, men ännu inte exempel på någon riktigt intressant forskning (men så har jag heller en fullständig överblick av fältet). Ändå är jag hoppfull och tror att de digitala metoderna kommer hjälpa oss att göra storskaliga analyser och upptäcka mönster och teman som leder till ny intressant forskning.

Överlag tror jag digitaliseringen bär med sig mycket positivt för historievetenskapen och jag hoppas att vi forskare blir bättre på att hålla oss ajour med utvecklingen och att ta upp digitaliseringens möjligheter i undervisningen. Även vi icke-programmerande historiker kan ha stor nytta av digitala verktyg i arbetet. Själv använder jag Ulysses att skriva i; Zotero för referenshantering och att kategorisera, läsa och anteckna i pdf:er; Grammarly för att skriva bättre engelska; och Tropy för att hantera fotografier av arkivmaterial. (De tre sistnämnda är gratis.) Jag har även lekt lite med analys och visualisering i Voyant Tools. Har man ett omfattande fotograferat arkivmaterial som man vill göra sökbart finns det många som talar varmt om DEVONthink.

En viktig utmaning är att samtidshistoriker snart kommer att behöva lära sig arbeta med källor som från början är digitala, som bloggar och innehåll i sociala medier, en annan är att berätta historien om det digitala, dess plats i kulturen och dess begrepp. I och med att offentligheten blir allt mer digital kräver det även att historiker tar plats på digitala arenor och paketerar sin expertis för att passa olika forum som bloggar, poddar och i sociala medier. Hur ska vi historiker förhålla oss till och bidra till förståelse av det digitala samhället? Vilka digitala verktyg och resurser ska vi använda och hur? Och vilka digitala arbetssätt ska vi lära ut till våra studenter? Dela gärna med er av tankar, digitala favoritverktyg och -resurser i kommentarsfältet.

Internet, från utopi till haveri?

Jag tror att en av de erfarenheter som utmärker min generation – personer födda mellan slutet av 1970- och början av 1990-talet – är att vi levde våra första år utan datorer, internet och mobiltelefoner, men att dessa under vår barn- och ungdom kom att bli självklara delar av våra liv. Till skillnad från generationen före har vi inte haft några svårigheter att tillägna oss dessa nya kommunikationsmedel och till skillnad från generationen efter har vi upplevt ett liv utan dem.

Jag tror jag var åtta när min familj skaffade sin första dator. Något år senare fick vi internet via ett 28K modem som kopplades ner när någon lyfte telefonluren. Bredband (ADSL) skaffade vi när jag började gymnasiet, ett år innan hade jag fått min första mobiltelefon. Detta var strax efter millennieskiftet och sammanföll, som jag ser det, med internets bästa tid. Utvecklingen gick snabbt inom program- och spelutveckling. Wikipedia startade 2001, och piratkopieringen blomstrade. Som tonåring funderade man inte vidare över de juridiska sidorna av fildelning, utan var hänförd över den mängd musik, film och spel som plötsligt gick att komma över helt gratis. Det var Napster och Kazaa och 2003 grundades The Pirate Bay. Själv föredrog jag Direct Connect, en fildelningstjänst som bestod av hubbar med olika teman. I dessa kunde man chatta med andra användare med liknande intressen, vilket blev en dörröppnare till kultur jag annars inte hade stött på och en plats för politiska diskussioner. Direct Connect gav mig mer intellektuell stimulans och bildning än min värdelösa gymnasielinje.

Datorer och internet öppnade vägar till kultur jag aldrig skulle upptäckt annars och fungerade även som ett verktyg för kreativitet, i mitt fall musikskapande. För ungefär tio år sedan började dock min nyfikenhet och mitt intresse för datorer att avta och idag är de framför allt arbetsverktyg för mig. När jag inte arbetar används datorn främst till SVT Play och för att läsa nyheter. Jag var sen med att skaffa både Facebook och smartphone och den senare är konstant inställd på ljudlös, har få appar och är i stör ej-läge när jag arbetar. Enligt appen skärmtid använder jag inte telefonen mer än runt 30 minuter per dag och främst då för att läsa nyheter. Jag har aldrig använt vare sig Twitter, Tinder, Instagram eller Snapchat. Har jag förvandlats till en konservativ teknikhatare eller finns det fog för min tilltagande skepsis och kritiska inställning till informationsteknologin?

I Anders Hansens sommar i P1 lärde jag mig nyligen att många vuxna använder telefonen 3-4 timmar per dag och ungdomar ännu mer. Detta är ett problem främst genom att det stjäl tid vi istället kunde lagt på sådant som vi mår bra av, som umgänge, motion och sömn. Det tycks föreligga en korrelation mellan ökat psykiskt lidande och de smarta telefonernas intåg i våra liv (Iphone lanserades 2007). De bidrar till stress, sömn- och koncentrationssvårigheter. Att tekniken stjäl orimligt mycket av vår tid och gör oss olyckligare är dock inte det enda problemet. I boken Internet är trasigt: Silicon Valley och demokratins kris visar Martin Gelin och Karin Pettersson hur ökande maktkoncentration och sociala mediers uppkomst har lett till att internet gått från att vara en plats för utopiska fantasier till ett allvarligt samhällsproblem. Inte så att sociala medier ensamt bär skulden till den pågående försvagningen av demokratin, men de spelar helt klart en viktig roll i detta.

Under arabiska våren framstod Twitter och Facebook som demokratins verktyg. Sedermera har det blivit tydligt att de lika väl kan utgöra ett vapen för antidemokratiska och våldsbejakande rörelser. Extremhögern har använt sociala medier för att hota och trakassera journalister, minoriteter och folk av andra politiska åsikter, och för att sudda ut gränsen mellan väl underbyggda argument och rena lögner. Detta har bidragit till ett hätskare debattklimat, där extrema åsikter och uttalanden blivit allt mer accepterade. Den ökande polariseringen har möjliggjorts av hur de sociala mediernas algoritmer är konstruerade. Algoritmernas logik gör att de mest extrema uttalandena är de som exponeras mest. Inte heller gör algoritmerna någon åtskillnad mellan seriös journalistik, marknadsföring och desinformation. Nyanserade och reflekterande utsagor missgynnas på mer extremt materials bekostnad. Sådant material framkallar fler reaktioner och skapar ”engagemang”. Och det är engagemanget som genererar intäkter. Zeynep Tufekci kallar Youtube för ”världens största verktyg för radikalisering”. Sociala medier har möjliggjort spridning av desinformation i gigantiskt skala och medför ett hot mot det faktagrundade och argumenterande samtal som är nödvändigt för demokratin.

Vi har allt mer börjat inse faran med att lägga så pass mycket makt över demokratins infrastruktur i ett fåtal storföretags händer. Idag vet vi att världen inte blir bättre av att fler får tillgång till sociala medier. Därmed inte sagt att alla inte borde ha tillgång till internet. Däremot måste vi bättre förstå vad internet, sociala medier och smartphones gör med oss som individer och hur de påverkar våra samhällen. Internet började som ett utopiskt projekt tänkt att underlätta kommunikation och kunskapsspridning, men är idag i stort behov av reglering och maktdelning.

Makten över internet samlad kring fem företag – Apple, Amazon, Microsoft, Google och Facebook – som det är praktiskt taget omöjligt att bojkotta. Allt färre hemsidor omsätter allt större andel av trafiken och internets ”big five” har vad som allt mer liknar monopol på viktiga delar av informationsteknologin. En möjlighet för att bryta maktkoncentrationen och monopolställning som nämns av Gelin och Pettersson är att stycka upp IT-jättarna. Exempelvis kunde Google tvingas göra sig av med Youtube. Facebook kunde tvingas göra sig av med Whatsapp och Instagram.

Internets storföretag har ofta anpassat sig efter diktaturers krav för att få tillgång till deras marknader, och att utnyttja sociala medier för dunkla politiska syften har visat sig allt för lätt. Idag vet vi att Facebook hade inflytande över utgången av USA-valet 2016, som också hänger samman med Cambridge Analytica-skandalen, där minst 87 miljoner amerikanska FB-användares persondata införskaffades med olagliga metoder. FN har även pekat på att Facebook bidragit till att möjliggöra folkmordet i Myanmar.

Sociala medier tjänar pengar på annonser och det har visats att de inte är kräsna med vilka de säljer annonsutrymme till, utan plattformar som Facebook, Youtube och Twitter tenderar att tillåta publicering av extremt och konspiratoriskt material. De gör heller ingen skillnad i hanteringen av propaganda, seriös journalistik och marknadsföring, och låter i regel extremistiskt material ligga kvar tills offentlig kritik framförs. Det är alltså upp till framförallt journalister att hålla efter dessa företag, som själva inte tar ansvar för vad som publiceras på deras plattformar. I takt med att allt fler annonsörer vänder sig till sociala medier förlorar också traditionella medier intäkter. I en tid då granskande journalistik behövs som mest, finns det som minst resurser till den. Journalister har också kritiserat internets storföretag för att undvika granskning och ansvarsutkrävning. Trots ständiga utsagor om att de gör världen bättre genom att bidra till öppenhet och kommunikation är ofta dessa företag själva väldigt väldigt återhållsamma vad gäller transparens.

Personer som Mark Zuckerberg, Elon Musk och Steve Jobs har varit allt för dyrkade och har, liksom den glorifierade och homogena miljön i Silicon Valley, undsluppit kritisk granskning. Tack och lov tycks detta hålla på att ändras. Flera av Silicon Valleys främsta kritiker har själva en bakgrund där. Detta gäller exempelvis Tristan Harris, vars organisation Humane Tech riktar kritik mot att appar, likt enarmade banditer, skapas för att vara beroendeframkallande och för att hålla oss kvar längre framför dem genom att samla in användarnas personliga data så att apparna kan finkalibreras ytterligare för att bli än mer effektiva och därmed hålla oss kvar än längre.

Visst är det bra att utöva påtryckningar mot företagen och visst finns det saker vi som individer vi kan göra för att skydda vår data, vilket jag tidigare skrivit om. Men framförallt är detta en samhällsfråga. Gelin och Pettersson framhåller lagstiftning, exempelvis inom EU, som ett viktigt verktyg för att få bukt med problematiken. GDPR infördes häromåret och var viktigt för att tydliggöra hur användares persondata hanteras av olika hemsidor och företag. Dylik lagstiftning borde kunna stärkas ytterligare. Exakt vad som bör göras är jag inte rätt person att svara på, men att diskutera och förstå problemet med sociala medier och ägandekoncentrationen på internet är första steget för att kunna hantera det. Det hjälper oss också att tänka kring vårt eget användande av internet, datorer och smarta telefoner.

Integritet och datasäkerhet

Det finns flera goda skäl till att lägga lite tid på att lära sig hur man värnar om sin integritet och säkerhet på internet. Alla vill slippa virus och malware, undvika att bli hackade eller få våra datorer och telefoner kapade av ransomware. Vi bör också göra vad vi kan för att ta kontrollen över vår personliga data som sprids och säljs bortom vår kontroll av internetjättar som Facebook och Google. Dessa säljer användarnas metadata till annonsörer, som då kan anpassa sin reklam efter specifika målgrupper. Det sker inte bara i kommersiella syften utan används nuförtiden också i politiska val. Facebook och Google är inte gratis – vi betalar med vår data och vi bör göra vad vi kan för att återta kontrollen över denna. (Man kan se och hantera den data Facebook sparat om en genom att gå till ”Inställningar” –> ”Ladda ned en kopia av dina Facebook-data”. Detsamma kan göras med Google Dashboard.)

Jag är långtifrån någon expert inom dessa frågor, men tack vare guider och forum som diskuterar integritet och IT-säkerhet har jag kunnat tillägna mig en del värdefulla praktiska kunskaper att dela med mig av. Förhoppningen är att detta inlägg ska fungera som en lättförståelig sammanfattning av de mest grundläggande aspekterna av datasäkerhet och som en guide till hur man praktiskt skyddar sig själv mot övervakning och intrång. Att anse att integritet och rätten till privatliv inte är värd att skydda för att man själv inte anser sig ha något att dölja är som att anse att yttrandefriheten inte är värd att värna om eftersom man själv inte har något att säga, som Edward Snowden har påpekat.

Texten är skriven med Mac-användare i åtanke och främst för datorer, men mycket av det jag säger gäller även för PC och smartphones.

TIPS FÖR MAC
Med Mac är det lätt att kryptera datorn med hjälp av Filevault. Det görs via ”systeminställningar” –> ”säkerhet och integritet”. Välj ett starkt och unikt lösenord. Här kan du även aktivera brandväggen och slå av platstjänster. Man bör även ställa in ett Firmware-lösenord, vilket förhindrar att datorn kan startas med andra skivor än den förvalda startskivan utan lösenord. I ”systeminställningar” –> ”spotlight” bör man kryssa ur ”spotlight-förslag”. Detta förhindrar att din data över dina sökningar skickas till Apple.

Även Mac-användare bör ha någon sorts antivirusprogram. I ett test MacWorld nyligen gjorde utsågs AVG till bästa gratisalternativ, själv har jag valt CleanMyMac X som kostar en slant men också hjäper en att exempelvis rensa onödiga filer och avinstallera program vid behov vilket håller datorn i god form. Mycket bekvämt!

FIREFOX
Tor är väl det självklara valet av browser för den som vill surfa anonymt, men själv gillar jag Firefox bäst eftersom den är snabbare och mer användarvänlig. Tack vare bra tillägg (add-ons) kan även Firefox förvandlas till en browser som värnar din integritet och säkerhet. En självklar add-on att använda till Firefox är HTTPS Everywhere. Detta krypterar anslutningen till olika webbsidor och förhindrar därmed att webbtrafiken avlyssnas av tredje part. HTTPS används alltid av till exempel banker, men med HTTPS Everywhere så skapas en krypterad anslutning till alla hemsidor där detta är möjligt. Det är en enkel säkerhetsåtgärd.

Alla bör även använda sig av en, förvisso inte okontroversiell, annonsblockerare. uBlock origin gör inte bara att du slipper en massa oönskad reklam, utan stoppar även malware och trackers. Den är dessutom resurssnål. Man kan komplettera denna med Decentraleyes, som även den stoppar trackers.

Vad man även kan göra är att använda sig av sökmotorer som Startpage, Qwant och DuckDuckGo, som till skillnad mot Google inte sparar information om eller spårar sina användare. De är även fria från annonser och fungerar alldeles utmärkt. Man kan ändra förvald sökmotor i Firefox under ”inställningar” –> ”sök”. Under ”inställningar” –> ”Säkerhet och sekretess” bör man kryssa i rutan för spårningsskydd, den för att förhindra popup-fönster och den för skydd mot nätfiske. Här kan man också justera inställningar för hur kakor och historik sparas. Kakorna bör rensas med jämna mellanrum.

För den som vill ha en enkel, integritetsvärnande, gratis och säker (krypterad) mejltjänst rekommenderas Protonmail. Ytterligare ett alternativ är Hushmail.

VPN
Justeringarna i Firefox gör en dock inte helt anonym eftersom IP-adressen (som kan liknas vid datorns fingeravtryck) visar vem du är, vad du gör och vilka sidor du besökt. Detta kan dock hindras med hjälp av ett VPN (Virtual Private Network). VPN maskerar IP-adressen och gör att all ut- och ingående data krypteras och därför inte kan avläsas utifrån. VPN är en bra säkerhet särskilt om man är uppkopplad via offentliga wifi-nätverk, då man annars är ett välkommet byte för hackare. Med ett VPN kan man koppla upp sig mot internet som om att man surfade från andra platser, vilket gör att det går att komma åt streamingutbud som bara är tillgängliga från vissa länder, till exempel kan man titta på SVTplay även när man är utomlands. Det kan även användas för att komma åt hemsidor som blockeras av ens arbetsgivare och dissidenter kan med ett VPN komma åt sidor blockerade i det egna landet. Välj en VPN-tjänst som inte sparar dataloggar, låter dig välja var du kopplar upp dig ifrån, tillåter P2P och kan användas på flera enheter samtidigt. Mitt eget val är NordVPN.

LÖSENORD
Bra unika lösenord är grundläggande för att skydda sig själv och sin information. Ens lösenord kan försöka knäckas av någon som känner en, därför ska man inte använda sådant som sin partners namn eller sitt eget personnummer i sitt lösenord. Framför allt använder sig dock hackers av avancerade program för att knäcka lösenord. För att inte bli offer för dessa ska man undvika att använda ord från ordlistor och inte heller använda de vanligaste lösenorden, som ”qwerty”, ”123456” och ”password”.

Generellt gäller att längre lösenord är säkrare och att man bör blanda bokstäver, siffror och andra tecken i sina lösenord. Viktigt är att aldrig återanvända lösenord. En sak man bör göra någon gång emellanåt för att kontrollera att ens lösenord inte knäckts och läckts är att testa sina mejladresser och användarnamn här. Det ger visserligen ingen garanti för att man inte hackats, men om man i övrigt inte har anledning att tro att ens konton kapats finns det ingen anledning till oro.

En bra extra säkerhet är att använda sig av tvåfaktorsautentisering. Detta innebär ofta i praktiken att en kod skickas via sms efter att man skrivit in sitt användarnamn och lösenord. Först efter att man verifierat sin inloggning med den koden loggas man in. På till exempel Facebook kan man välja att spara sin webbläsare efter att man gjort detta, vilket innebär att man bara behöver göra detta när man väljer att logga in från en ny enhet (förutsatt att man inte rensar sina cookies).

Nuförtiden forskas det en hel del om lösenord och en bra och lättillgänglig översiktsartikel finns att läsa här. Artikelförfattaren har också varit med och tagit fram ett verktyg man kan använda för att testa styrkan i sina lösenord. Den som vill slippa hitta på lösenord själv tar med fördel hjälp av en lösenordsgenerator.

Hur ska man då komma ihåg alla sina lösenord? Det ska man inte. I alla fall inte majoriteten av dem. Bättre är att skaffa sin en lösenordshanterare. Med en sådan behöver man bara komma ihåg ett huvudlösenord, de resterande lösenorden finns krypterade i lösenordshanteraren. Populära — och vad jag förstår erkänt bra alternativ — är 1password, lastpass och keepass. Lastpass är gratis, lättanvänt och kan integreras i Firefox och är av de skälen mitt eget val.

TIPS FÖR FÖRDJUPNING
En bra guide om säkerhet och integritet för MacOS användare finns här. Sidan Privacytools innehåller mycket bra information och värdefulla tips. Det samma gäller Electronic Frontier Foundation, som också är utvecklarna bakom HTTPS everywhere.