AI är ett uttryck för en pedagogisk förskjutning

Snabbare sökprocesser, automatiska sammanställningar och effektivare studier med hjälp av ett AI-verktyg kan låta lockande för studenter. Men i själva verket riskerar det att underminera akademiskt lärande, skriver Pontus Wärnestål.

28 november, 2025
Pontus Wärnestål

Det här är en debattartikel. Åsikterna som uttrycks är skribentens/skribenternas egna.

Sökjätten Googles nya AI-verktyg Gemini for Students riskerar i förlängningen att underminera både akademiskt lärande, integritet och oberoende, menar debattskribenten.

Företaget Google marknadsför just nu sina nya AI-verktyg till studenter och universitet världen över. Under rubriken Gemini for Students lockar bolaget med gratislicenser för studenter och löftet:
“Spara massor av tid med Deep Research – spara timmar av möda genom att researcha komplexa ämnen på webben och få en sammanställd, omfattande rapport med källor och citat.”

Det låter tilltalande: snabbare sökprocesser, automatiska sammanställningar, effektivare studier. Men i själva verket är detta uttryck för en pedagogisk förskjutning som riskerar att underminera både akademiskt lärande, integritet och oberoende.

Pontus Wärnestål

Biträdande professor i informationsteknologi, Högskolan i Halmstad

Vad Google beskriver handlar i grunden om att ersätta lärande som process med kunskap som produkt. Att forska (eller ”researcha” som det även kallas i den svenska reklamtexten) beskrivs som något tidsödande – något som kan och bör elimineras med ett digitalt verktyg. Men forskningsprocessen är förstås inte ett hindersom ska elimineras – det är ju själva lärandet och kunskapsbyggandet.

När studenter och forskare söker information, väger källor mot varandra, läser referenser och ifrågasätter perspektiv, sker det djupa kognitiva arbete som akademin vilar på. När en språkmodell levererar färdiga svar, urholkas den intellektuella träningen. Automatiskt genererad text, argument och sammanfattningar föder en central fråga: Vem är egentligen kunskapsproducenten – studenten eller algoritmen?

Begreppet låter avancerat, men Googles “Deep Research” handlar förstås i praktiken i bästa fall om ytförståelse. Det torde stå bortom allt tvivel att dagens storskaliga språkmodeller (”AI” i dagligt tal) endast kan sammanfatta texter statistiskt utan förmåga att förstå kontext, metod och teoretiska nyanser. Den bygger sina svar på sannolikhetsmönster – inte på förståelse.

När språkmodeller tar över det som anses “tråkigt” – att läsa, analysera, sammanfatta – förlorar studenter den träning som gör dem till självständiga tänkare.

Risken är uppenbar: studenter tror att de har förstått ett ämne när de i själva verket återger en syntetisk, statistiskt genererad ytöverblick. Gränsen mellan eget arbete och automatiserad produktion blir snabbt otydlig. Vi riskerar att ersätta ansvar, reflektion och källkritik med bekvämlighet under parollen effektivitet.

Googles marknadsföring bygger alltså på löftet om att spara tid. Men högre utbildning handlar inte om att snabbt producera svar, utan om att utveckla förmågan att hantera komplexitet, tvetydighet och intellektuell ansträngning. Lärosätena bör inte drivas av den sortens effektivitet som förespråkas i Googles reklam, utan av förståelse. När vi låter tekniska genvägar ersätta intellektuella processer reduceras bildning till konsumtion.

Ironin är påtaglig: universitet, som ska stå för öppen vetenskap och källkritik, bygger nu undervisning och forskning på stängda, icke-replikerbara modeller. Om studenter och forskare använder statistiska språkmodeller för analys och lärande utan att förstå hur modellerna fungerar – hur kan resultaten då betraktas som tillförlitliga?

Googles erbjudande presenteras som “gratis”, men även den mest inbitna teknikutopist borde vid det här laget ha lärt sig att detta är tomma ord. Priset är förstås i vanlig ordning data samt inlåsning i företagets ekosystem. Universitet som integrerar verktyg som Gemini i sina system överlåter delar av sin kunskapsinfrastruktur till en kommersiell aktör vars AI-modeller inte kan granskas.

Det underminerar forskningens krav på öppenhet, transparens och reproducerbarhet. Och även om Google lovar att inte använda studentdata för att träna modeller, ger det finstilta i användarvillkoren bolaget rätt att analysera metadata och beteendemönster för “serviceförbättringar” – en standardeufemism som möjliggör personlig dataanvändning oavsett.

Googles strategi och intention är förstås inte pedagogisk, utan plattformsstrukturell. Genom att få hela utbildningssystemet att använda samma AI-modell skapas en global homogenisering av kunskap – där Googles stängda algoritmer snarare än forskare och pedagoger avgör vad som är korrekt.

Universiteten står nu inför ett vägval: Vill vi vara konsumenter av techjättarnas färdiga lösningar, eller producenter av oberoende kunskap?

Att i stället investera i öppna, etiska och pedagogiskt grundade alternativ innebär att lärosätena återtar kontrollen över sin digitala infrastruktur. Det behöver inte i första hand handla om att bygga egna modeller, utan om att välja öppna och inspekterbara system som kan anpassas till akademins värden – där studentdata skyddas, pedagogik styr designen och kunskap inte filtreras genom kommersiella intressen.

Detta är kärnan i digital suveränitet: att akademin själv äger verktygen för sitt lärande och tänkande. Framtidens utbildning formas inte av vad som går snabbast, utan av vad som bevarar bildningens djup, integritet och frihet.

Pontus Wärnestål,
biträdande professor i informationsteknologi, Högskolan i Halmstad

Pontus Wärnestål

Vad tycker du? Skicka in din replik eller debattartikel till redaktionen@universitetslararen.se

Ämnen i artikeln:
Dela:
Debatt och krönikor

Klara Bolander Laksov

Klara-Bolander-Laksov

Skicka din debattartikel till redaktionen@universitetslararen.se

Senaste numret
Tidningsarkiv