top of page

Arbetsförmedlingen bekräftar att ett kinesiskt AI-verktyg varit installerat på myndighetens servrar men nu akut stängts ner.

  • Writer: VALHALLA VAULT
    VALHALLA VAULT
  • Dec 16, 2025
  • 3 min read
Arbetsförmedlingen stoppar kinesisk AI

Arbetsförmedlingen har akut stoppat användningen av ett kinesiskt AI-verktyg som varit installerat på myndighetens servrar. Enligt Aftonbladets uppgifter skedde införandet utan att generaldirektören kände till det. Verktyget har nu stängts ner efter interna varningar om allvarliga säkerhetsrisker och farhågor om att känslig data kan ha exponerats.


Det handlar enligt flera samstämmiga källor om den kinesiska språkmodellen Qwen 3, utvecklad av företaget Alibaba. Modellen beskrivs i öppna källor som kraftfull, kostnadseffektiv och särskilt skicklig på att tolka visuella element.


En modell som väckte intern oro

Flera personer inom Arbetsförmedlingen ska tidigt ha reagerat på valet av en kinesisk språkmodell. Oron gällde både modellens ursprung och bristande transparens kring vilken data den tränats på.


Enligt källor till Aftonbladet gick modellen så långt att den vid direkta frågor i tjänsten själv ska ha avrått myndighetspersonal från att använda den.


– Det har varit otydligt vilken data man tränat den här modellen mot. I teorin kan det vara känsliga uppgifter om arbetssökande som dessutom riskerar att hamna i Kinas händer, säger en källa.


Detta förstärker bilden av ett system som införts utan tillräcklig riskbedömning, trots att det hanterar eller potentiellt kan hantera mycket känslig information.



Myndigheten bekräftar pilot men utan ledningskännedom


Arbetsförmedlingen bekräftar att man haft en intern LLM-tjänst i drift som pilotprojekt, men utan att generaldirektör Maria Hemström Hemmingsson varit informerad.


I ett mejl till Aftonbladet skriver presschefen Hans G Larsson:


”Ja, Arbetsförmedlingen har haft en intern LLM-tjänst i gång i form av en intern pilot. Den är inte i aktiv drift utan stängdes ner den 1/12 på uppdrag av generaldirektör Maria Hemström Hemmingsson så snart hon blev informerad om den. I övrigt avböjer vi att svara på ytterligare frågor eftersom detta ingår i vår internutredning.”


Det innebär att ett avancerat AI-system varit aktivt i myndighetsmiljö utan förankring på högsta nivå.


Tidpunkten gör händelsen ännu mer allvarlig


Avslöjandet kommer kort efter att tre chefer och en medarbetare på Arbetsförmedlingens IT-avdelning arbetsbefriats, efter upprepade visselblåsningar om eventuella oegentligheter. Bland de berörda finns myndighetens IT-direktör.


Enligt Aftonbladets uppgifter har missnöje kring arbetet med AI-lösningar, inklusive en kontrollplattform som samlar in data om arbetssökande och anhöriga, varit en del av bakgrunden till besluten.


Införandet av den kinesiska språkmodellen ska också ha varit en viktig komponent i agerandet mot cheferna och medarbetaren.


Detta sker dessutom parallellt med att Arbetsförmedlingen nyligen vunnit en juridisk tvist där myndigheten fått rätt att utestänga en leverantör med kinesiskt ägande, med hänvisning till nationell säkerhet.




AI är inte ett verktyg, det är ett systembeslut


Det centrala i denna händelse är inte enbart att modellen kommer från Kina eller att den är tekniskt avancerad. Det avgörande är hur beslutet verkar ha fattats.


AI-system innebär:

• nya dataflöden

• nya beroenden

• oklarheter kring träning, loggning och åtkomst

• och potentiell exponering av känslig information


När sådana system införs utan tydlig styrning, dokumenterad riskanalys och ledningsbeslut uppstår en systemrisk. Det är inte längre ett tekniskt experiment, utan ett beslut som direkt påverkar informationssäkerhet, regelefterlevnad och förtroende.




En styrningsfråga, inte ett teknikmisslyckande


Händelsen vid Arbetsförmedlingen illustrerar ett växande problem i många organisationer:

tekniken rör sig snabbare än styrningen. Ambitionen att ligga i framkant, testa nytt eller visa innovationskraft får ibland företräde framför grundläggande frågor om ansvar, säkerhet och konsekvenser. När riskerna upptäcks först i efterhand har organisationen redan tappat kontrollen.



Den större lärdomen


I en tid där AI-system kan analysera, sammanställa och agera på data i realtid räcker det inte med traditionella IT-processer. Det krävs tydliga beslutsvägar, aktivt ledningsansvar och en gemensam förståelse för vad AI faktiskt innebär ur ett säkerhets- och samhällsperspektiv.


Cybersäkerhet är inte längre något som kan hanteras i skymundan av tekniska team.

Det är en ledningsfråga.

Och i förlängningen en fråga om förtroende, ansvar och samhällsbärande funktioner.


Vill du komma igång med din (AI) Cyberstategi?


 
 
 

Comments


bottom of page