Vad är AI och vad behöver ni ha koll på?
Vad är AI och vad behöver ni ha koll på?
EU-kommissionens definition av AI: Artificiell intelligens avser system som uppvisar intelligent beteende genom att analysera sin miljö och vidta åtgärder – med viss grad av självständighet – för att uppnå särskilda mål.
För att förklara det lite enklare: AI, eller artificiell intelligens, är ett samlingsnamn för teknologier som gör att datorprogram kan resonera, planera, förstå språk, lära sig av data, hitta mönster och fatta beslut eller ge svar utifrån det. Språkbaserad AI kan förstå och bearbeta språk, och i viss mån resonera och planera. Annan AI kan vara byggd för att analysera röntgenbilder, frånvarostatistik, läsförmåga, eller datatrafik. En viktig skillnad mellan AI och vanliga datorprogram är att AI skapas genom att ’träna’ på data, inte genom programmering.
Exempel på AI i vardagen:
AI finns sedan länge runt omkring oss, hela din mobil är till exempel full med AI-driven teknik. Röstassistenter som Siri och Google Assistant och rekommendationer på Netflix och Spotify, men också de sökmotorer du använder är baserade på AI. De senaste åren har chatrobotar som ChatGPT, Gemini, Co-pilot och bild- och ljudverktyg som Dall-E, Midjourney och Notebook LM lanserats och fått många användare.
Exempel på AI på arbetsplatsen:
Automatiserad kundservice med chatbotar, transkribering av möten, AI-drivna analysverktyg för beslutsfattande och program som hjälper till med schemaläggning och administration är vanliga.
Exempel på AI i utbildning:
Personligt anpassade (adaptiva) digitala läromedel, AI- handledare som ger feedback i realtid, text-till-tal- funktionalitet och automatiserade bedömningar och rättning av uppgifter är vanliga AI som elever och studenter möter.
Vi reder ut: Generativ AI, AI-språkmodeller och LLM
Generativ AI är AI-system som kan skapa nytt innehåll, exempelvis text, bilder, ljud eller kod. Det inkluderar modeller som kan generera originalmaterial baserat på träningsdata, som t.ex. ChatGPT, DALL·E och Midjourney.
Generativ AI kan vara baserad på olika typer av modeller, inklusive språkmodeller, bildmodeller och musikgenererande modeller.
AI-språkmodeller är en specifik typ av generativ AI som är specialiserad på språkförståelse och textgenerering. De tränas på stora mängder textdata och används för att generera sammanhängande och meningsfull text. Exempel på språkmodeller inkluderar GPT (som i ChatGPT), BERT, T5 och LLaMA.
Vissa språkmodeller är generativa (som GPT), medan andra används främst för analys och klassificering (som BERT).
LLM (Large Language Model) är en språkmodell som tränas på stora mängder textdata, använder djupinlärning, ofta transformerarkitekturen (neuralt nätverk), för att förstå och generera språk och som kan utföra uppgifter som textgenerering, sammanfattning, översättning och kodskrivning.
Exempel på LLM:
- GPT-4, GPT-3.5 (OpenAI) – driver ChatGPT
- PaLM 2, Gemini (Google)
- LLaMA 2 (Meta)
- Claude (Anthropic)
Alla AI-språkmodeller är inte generativa, men generativa språkmodeller är en del av generativ AI. Om en AI-modell kan skapa ny text är den både en språkmodell och en generativ AI-modell. Om en AI bara analyserar text utan att generera ny, är den en språkmodell men inte en generativ AI-modell. ChatGPT är alltså en generativ AI-modell eftersom den kan skapa text, medan BERT är en språkmodell som främst används för att förstå och analysera språk utan att generera ny text.
Promptar är en instruktioner eller frågor som man ger till en AI-modell för att styra dess svar och genererade innehåll.
AI-förordningen: vad behöver ni ha koll på?
Vad behöver ni veta och var ska ni börja? Här ger vi övergripande råd på vad som krävs och hur ni tar de första stegen för att komma igång med arbetet, får koll på vilken användning av olika AI-system som är tillåten och vilken som kan vara förbjuden. Tänk på att utvecklingen går fort och nya AI-tjänster, ny funktionalitet dyker upp i princip lika fort som du läser den här meningen, så det viktigaste är att ni kommer igång (om ni inte redan är igång). Ta de första stegen. Hitta för er relevanta forum och nätverk för kunskapsutbyte. Ni behöver inte uppfinna hjulet på egen hand. Se fler resurser och läs mer på sidan xx.
EU:s riktlinjer för definitioner av AI-tjänster:
EU-kommissionen släppte i februari 2025 riktlinjer för att definiera AI för att hjälpa leverantörer(providers) och tillhandahållare (deployers) att avgöra vilka typer av AI som omfattas i olika delar av AI-förordningen. Definitionerna är levande materia och kan komma att ändras i takt med teknikutvecklingen. Dessa bör ni bekanta er med som leverantör av AI.

Minimal och Begränsad risk
AI-system med minimal risk:
AI-system som t.ex. spamfilter, AI i dataspel, transkribering av möten, automatiska kalenderbokningar, sortering av mejl, rättstavningsprogram, strukturering av filer med mera. Här finns inga särskilda regler.
AI-system med viss risk (begränsad risk)
AI-system som t.ex. generativa AI-verktyg av typen ”chatbottar”. Här ställs nu krav på att det ska framgå för användarna att materialet är AI-skapat eller att de interagerar med AI och inte med en fysisk person.
Hög risk: AI i utbildning och rekrytering har hårda krav
Vissa AI-system klassas som ”högrisk-AI” och omfattas därför av strikta krav på transparens, säkerhet och regelefterlevnad. Reglerna är hårda då utbildning, antagning och rekrytering är viktiga livshändelser som kan påverka individens framtid. Inom utbildning gäller detta särskilt system som används för:
📌 Antagning och urval: AI-system som avgör vem som får tillgång till utbildning eller varianter av utbildningar.
📌 Bedömning av elever: AI som används för betygsättning eller för att anpassa undervisningen.
📌 Övervakning under prov eller detektorer: AI för att upptäcka fusk eller förbjudet beteende vid provtillfällen eller för att avgöra om ett betygsunderlag är skrivet av en chattbot.
📌 Rekrytering och arbetsvillkor: AI-system som används för att välja ut kandidater eller bedöma personalens prestationer.
Man får använda högrisk-AI, men då ska man göra en noggrann bedömning och säkra upp att man använder det på ett juridiskt korrekt sätt, det kan handla om att: bedömningsbeslut som tas av en AI ska kunna överklagas, kanske sparas under en viss tid, en konsekvensbedömning genomföras, eleverna måste informeras och de som använder ska ha fått utbildning.
Undantag:
Vissa AI-system som används inom områdena ovan är inte högriskklassade, förutsatt att något av följande kriterier är uppfyllt:
- De utför en snäv processuell uppgift.
Skulle t.ex. kunna vara AI-system som räknar antalet stavfel eller grammatiska fel i en text, som bas för bedömning av lärare. Eller AI-system som omvandlar handskrivna svar på ett prov till maskintext. - De förbättrar resultatet av tidigare mänsklig verksamhet.
Skulle t.ex. kunna vara ett AI-system som översätter en lärares återkoppling på ett prov till fler språk. - De upptäcker beslutsmönster eller avvikelser från tidigare beslutsmönster och är inte avsedda att ersätta eller påverka en tidigare slutförd mänsklig bedömning.
Skulle t.ex. kunna vara ett AI-system som hittar mönster mellan betyg och frånvaro, och jämför med mönster från tidigare år. - De utför en förberedande uppgift som är relevant för de listade högrisksystemen.
Skulle t.ex. kunna vara ett AI-system som korrigerar skrivfel i elevers uppsatser innan läraren läser och bedömer.
Tips – hög risk
✅ Dokumentera hur AI-systemen fungerar och vilka beslut de fattar.
✅Genomför en riskanalys för de AI-system som används i organisationen.
✅Om högrisk-AI används i verksamheten, eller om ni planerar att införa det, ska ni säkra att kraven på transparens, säkerhet och att bruksanvisningen följs. Berörda arbetstagare och även fackförbund ska informeras innan det börjar användas.
✅Säkerställ att AI-systemen är transparenta och kan granskas av användare.
För leverantörer*:
✅ Leverantörer av högrisk-AI måste successivt efterleva en rad krav, inklusive att registrera sig i EU:s databas, uppfylla och redovisa en CE-märkning och en rad andra åtgärder ska vidtas. Svenskt näringsliv har en bra checklista att börja med.
*även myndigheter och organisationer kan vara leverantörer (se sidan AI-förordningen, när, varför och för vem?)
Säkerställ kompetens
Enligt AI-förordningen (särskilt i artikel 26) ska tillhandahållaren (deployer) av högrisk-AI-system se till att det finns roller/funktioner där nödvändig kompetens, utbildning och mandat finns för att (mänskligt) kontrollera AI-systemen. Även om det inte verkar finnas formella krav på en person som har ansvar, så innebär det i praktiken att organisationer som använder högrisk-AI-system behöver:
- se till att det finns en funktion, dvs medarbetare med rätt kompetens och utbildning, som har ansvar för att övervaka och kontrollera AI-systemets funktion.
- säkerställa adekvat utbildning: ge de ansvariga den utbildning som krävs för att de ska förstå AI-systemets kapacitet och begränsningar, samt hur de ska hantera eventuella avvikelser eller risker.
- tillhandahålla nödvändigt stöd: se till att de får de verktyg och resurser som behövs för att effektivt kunna övervaka och, vid behov, ingripa i AI-systemets drift.
Oacceptabel risk – förbjuden AI
En viktig del av förordningen är att vissa AI-system nu förbjuds helt inom EU. Detta gäller redan nu (februari 2025). För utbildningssektorn är särskilt följande förbud relevanta:
❌ Manipulerande AI: system som påverkar användarnas beteende på ett sätt som kan skada dem.
❌ AI som utnyttjar sårbarheter: till exempel system som riktar in sig mot personer i utsatta situationer eller som är extra sårbara, som barn och unga.
❌ Social poängsättning: AI som rangordnar individer baserat på deras beteende eller egenskaper.
❌ Ansiktsigenkänning i databaser: förbud mot att skapa databaser genom skrapning av ansiktsbilder från internet eller övervakningskameror.
❌ Känsloigenkänning i skolan: AI-system som försöker tolka elevernas känslotillstånd i undervisningsmiljöer.
Tips – oacceptabel risk
✅ Se över befintliga AI-lösningar för att säkerställa att de inte omfattas av förbudet.
✅ Granska kontrakt med leverantörer och uppdatera dem vid behov.
✅ Kommunicera tydligt till personal och användare om detta och vad som gäller.
Obs! Tolkning pågår!
AI-förordningen implementeras just nu och precis som med andra lagar, t.ex. GDPR, sker olika juridiska tolkningar av artiklarna och definitionerna. Det är inte förrän något har prövats juridiskt och en dom, ett vite eller liknande kommit, som vi faktiskt vet hur förordningen ska tolkas. Den här översikten är till för att skapa medvetenhet om AI-förordningen kopplat till utbildning och att det är viktigt att följa och ha koll på hygienfaktorerna, att era rutiner för informationssäkerhetsklassning, granskning och val av digitala tjänster även inkluderar AI-systemen och att ni jobbar med AI-kunnighet – AI-litteracitetet – hos medarbetarna. Följ speciellt rekommendationer och råd från DIGG och IMY.
Synpunkter
Har du frågor eller funderingar gällande materialet?
Hör gärna av dig till oss på Swedish Edtech!