AI-genvägen kan komma att bli en senväg

Generativ AI har på kort tid kommit att spela en allt större roll i skapande av innehåll inom akademin. Men det finns anledning att stå emot lockropen från AI och chatbottar, skriver Håkan Nilsson och Ali Kazemi vid Högskolan Väst.

27 maj, 2024
Håkan Nilsson, universitetslektor i psykologi och personalvetenskap, Högskolan Väst och Ali Kazemi, professor i psykologi, Högskolan Väst

Det här är en debattartikel. Åsikterna som uttrycks är skribentens/skribenternas egna.

Chat GPT är både skrämmande och fascinerande på samma gång. Men precis som med alla andra verktyg kan den användas på bra och mindre bra sätt. Chat GPT är en språkmodell, och utgör ett av många exempel på generativ AI. Med generativ AI avses en typ av artificiell intelligens som bygger på maskininlärning med enorm kapacitet att utifrån massiva träningsdata generera text, bild, musik och video. Innehållet genereras utifrån så kallade prompter, det vill säga instruktioner och frågor som användare matar in i det aktuella AI-verktyget. Generativ AI har på väldigt kort tid kommit att spela en allt större roll i skapande av innehåll i diverse sammanhang, och akademin är självfallet inget undantag.

I den här artikeln nämner vi Chat GPT, då den i skrivande stund är det mest kända exemplet på generativ AI, men vår diskussion gäller naturligtvis andra generativa AI-verktyg också. I artikeln håller vi oss till textproduktion och inte till andra typer av (mätbar) output.

Redan nu används Chat GPT både av studenter, lärare och forskare inom akademin i olika grad och med olika resultat. Frågar vi studenterna ser de flesta nog mest fördelar med detta verktyg. Många fascineras av snabbheten i Chat GPT:s hantering av frågor. Och många talar mer om hur man kan maximera och optimera ”utfallet”, det vill säga språkmodellens svar på användarens frågor. Detta ser vi tydligt på bland annat föreläsningar som anordnas om Chat GPT.

I dessa finns nämligen ett uttalat fokus på prompt-teknik som bland annat innebär att vara tydlig i sitt sätt att ställa frågor, förse språkmodellen med en kontext för den aktuella frågeställningen, ange nivå och omfattning på svaret, och att efter erhållet svar ställa följdfrågor och be om förtydliganden, konkretiseringar genom exempel och utveckling och fördjupande av resonemang. Det handlar alltså framför allt om att lära sig att hantera verktyget på ”rätt” sätt, det vill säga ett sätt som maximerar dess output.

Begränsar vi blicken mot forskare, lockas de av att ta hjälp av Chat GPT i textproduktionens olika faser. Också här ses Chat GPT som en genväg som sparar tid och personliga insatser. Exempelvis förekommer det att forskare laddar upp artiklar och ber Chat GPT om att sammanfatta artiklar i stället för att själva läsa, begrunda och sammanfatta artikelns innehåll. Frågan som nu infinner sig är vad detta artificiellt intelligenta hjälpmedel gör med vår självaktning.

I ordets betydelse ryms ”att akta sig själv!” eller om man så vill respektera och uppskatta sig själv. I arabiskan finns ett motsvarande ord, izzat, som i en betydelse skall förstås som ”personlig respekt”. Relevant för sammanhanget är att izzat har andra relevanta konnotationer som integritet och stolthet. Den fråga vi ställer är huruvida självaktning kan upplevas när akademiker tar genvägar med hjälp av generativ AI, Chat GPT?

”Även om nivåanpassade förklaringar och framför allt snabbt genererade svar kan upplevas som en genväg i lärandet och textproduktionen blir denna genväg kanske en senväg genom att svaren som genereras inte sällan är färgade av faktamässiga felaktigheter, styrda fördomar och påhittade referenser.”


Vi har båda sett vilka möjligheter Chat GPT erbjuder. Men det finns begränsningar. Även om nivåanpassade förklaringar och framför allt snabbt genererade svar kan upplevas som en genväg i lärandet och textproduktionen blir denna genväg kanske en senväg genom att svaren som genereras inte sällan är färgade av faktamässiga felaktigheter, styrda fördomar och påhittade referenser.

Det vi fått lära oss är att Chat GPT tränats på att producera text som ser potentiellt trovärdig ut utifrån en slags sannolikhetsprincip och inte primärt är tränad på att redogöra för fakta. Men bortsett från träningsspecifika begränsningar är en diskussion om Chat GPT:s konsekvenser angeläget att uppmärksamma.

Alltså, vad kan en gränslös och hejdlös chatbot-användning på sikt göra med vårt tänkande och vårt skrivande? Finns det en risk att gränserna på sikt suddas ut beträffande vad som är resultatet av det egna tänkandet och av intelligenta språkmodellers ”tänkande”, något vi menar har bäring för vår självaktning som forskare och akademiker?

”Finns det en risk att gränserna på sikt suddas ut beträffande vad som är resultatet av det egna tänkandet och av intelligenta språkmodellers ”tänkande”…”

Det är som vi redan konstaterat svårt att hålla tillbaka den tjuskraft som Chat GPT lockar med. Av det skälet är det är lätt att förstå hur lätt det är att lockas in i den faustiska besatthetens nät. Men pudelns kärna är inte längre Mefistofeles utan AI. Och det föranleder oss att argumentera för en kunskapsetik som står emot lockropen från AI och chatbotar. Inte minst en kunskapsetik som slår vakt om den egna självaktningen och som inte kan säljas ut till AI i utbyte mot en snabb väg till akademiska framgångar. Här tänker vi på den ”publiceringshets” som många forskare lätt sugs in i (i vissa fall en till två artiklar per vecka) och som påkallar frågan om varför vi som forskare skriver.

Är det för att vi har något att säga, något ”eget”, något viktigt, något meningsfullt, något intressant och relevant och i bästa fall även något nytt som löser ett teoretiskt eller praktiskt problem.

Allt det här är vad vi kallar bidrag. Alltså, det vi skriver i akademiska sammanhang ska vara vårt bidrag till vetenskapssamhället (tankekollektivet!). Användningen av Chat GPT ställer frågan om upphovet till ett bidrag på sin spets, det vill säga vad är resultatet av vårt eget tänkande, vår egen personliga insats och vad kommer från diverse generativa AI-verktyg.

Avslutningsvis konstateras att det finns risker med en tanklös, överdriven och okontrollerad användning av Chat GPT. Förutom att Chat GPT kan driva på den rådande kvantitetsfokuseringen med fokus på antal publikationer, föreligger några andra potentiella risker. Generativa AI-verktyg kan nämligen producera text som är väldigt lik befintligt publicerade verk vilket i en del fall kan leda till oavsiktlig plagiering om texten inte kontrolleras.

En annan risk är förvrängning av kunskap och spridning av denna via publicering såvida den AI-genererade texten inte faktagranskas, något som skapar en arbetsbörda utan dess like för tidskrifter vid hantering av inkomna manuskript. Denna ökade arbetsbörda handlar framför allt om att stoppa den vetenskapliga nedskräpning (eng. scientific littering, Kazemi och Törnblom, 2023) vars risk potentiellt har ökat efter inträdet av generativ AI.

”Vid överdriven användning av verktyg för generativ AI urholkas äktheten och djupet i akademiska publikationer som borde vara ett resultat av långvarigt och hängivet engagemang samt originellt tänkande.”

Och sist men inte minst, vid överdriven användning av verktyg för generativ AI urholkas äktheten och djupet i akademiska publikationer som borde vara ett resultat av långvarigt och hängivet engagemang samt originellt tänkande, något som vi menar är direkt relaterat till den självaktning som är bärande för vår professionella identitet som akademiker och forskare.

Håkan Nilsson
Håkan Nilsson

Universitetslektor i psykologi och personalvetenskap, Högskolan Väst

Ali Kazemi
Ali Kazemi

Professor i psykologi, Högskolan Väst

Håkan Nilsson, universitetslektor i psykologi och personalvetenskap, Högskolan Väst och Ali Kazemi, professor i psykologi, Högskolan Väst

Vad tycker du? Skicka in din replik eller debattartikel till redaktionen@universitetslararen.se

Ämnen i artikeln:
Dela:
Debatt och krönikor

MarieLouise Samuelsson

MarieLouise Samuelsson-kronika

Skicka din debattartikel till redaktionen@universitetslararen.se

Senaste numret
Tidningsarkiv
Nummer 3, 2024
Nummer 2, 2024
Nummer 1, 2024
Nummer 6, 2023
Nummer 5, 2023