Forskningsresultat: Kunstig intelligens på jobcentrene ligner ikke en god erstatning for menneskelige vurderinger
Det kan blive problematisk at bruge AI-teknologier til at forudsige langtidsledighed blandt kontanthjælpsmodtagere. Det er resultatet af forskningsartiklen Det vil vi aldrig skrive ned, som er blevet offentliggjort i artikelsamlingen PACM HCI i forbindelse med den internationalt førende konference for computer-støttet samarbejde (CSCW 2021).
Skrevet 22. april 2021 08:40 af Jari Kickbusch
Kunstig intelligens – eller AI, som det også bliver kaldt ¬– bliver brugt til at forudsige vores næste køb, den næste film, vi ser, og en masse andre valg, som vi træffer i vores hverdag. Kort fortalt bliver AI-teknologiernes forudsigelser skabt ved at analysere enorme datasæt og i en tid, hvor vi lagrer elektronisk data som aldrig før, giver det mulighed for at skabe en indsigt, som for bare få årtier siden var uden for vores rækkevidde. Fx bliver AI-teknologier brugt til at forudsige, hvordan Covid-19 spreder sig og til at identificere, hvilke mennesker, som er særligt sårbare.
Selv om kunstig intelligens er blandt tidens mest hypede begreber, er det naturligvis ikke svaret på alle verdens udfordringer. Det bekræftes i forskningsartiklen “We Would Never Write That Down”: Classifications of Unemployed and Data Challenges for AI, som bygger på en undersøgelse foretaget på et dansk jobcenter, hvor sagsbehandlerne bl.a. skal kategorisere kontanthjælpsmodtagerne og vurdere deres arbejdsevne.
- På jobcentrene placerer sagsbehandlerne kontanthjælpsmodtagerne i nogle kategorier –eller målgrupper, som de også bliver kaldt. Og det har stor betydning for borgerne, hvor de bliver placeret, fordi det bl.a. har indflydelse på, hvilken hjælp de modtager, hvilke rettigheder de har osv. Flere steder har der været et stærkt ønske om at bruge historiske data fra en masse kontanthjælpsmodtagere til fx at forudsige sandsynligheden for langtidsledighed for de her mennesker, og det er så det, vi har undersøgt nærmere, fortæller ph.d.-studerende på IT-Universitetet, Anette C. M. Petersen, som har skrevet artiklen sammen med Lars Rune Christensen (IT-Universitetet) Richard Harper (Lancaster University) og Thomas Hildebrandt (Københavns Universitet).
Binær menneskeanskuelse
Anette C. M. Petersen lavede feltarbejdet, som undersøgelsen bygger på, i Gladsaxe. Med henblik på at undersøge, hvorvidt kunstig intelligens kunne bruges til at træffe bedre og mere effektive beslutninger, studerede hun sagsbehandlernes arbejde med kontanthjælpsmodtagerne, som officielt bliver inddelt i to kategorier; 2.2, som består af de jobparate, og 2.3, som består af de aktivitetsparate – og som altså ikke umiddelbart er i stand til at arbejde. (Efterfølgende er disse kategorier blevet omdøbt til henholdsvis 6.2 og 6.3). Virkeligheden er dog mere kompleks end de to kategorier antyder, fortæller Anette C. M. Petersen:
- En sagsbehandler fortæller mig, at man nærmest skal være død for at blive placeret i målgruppe 2.3. Det er utrolig svært for dem at finde beviser på, at borgerne har udfordringer, som berettiger til den placering og samtidig er der et politisk ønske om at flytte flere borgere over i gruppen med de jobparate for at få dem i job hurtigere ... Vi opdager, at langt de fleste borgere slet ikke hører hjemme i nogle af de her to kategorier. De befinder sig en gråzone, hvor de ikke er raske og i stand til at varetage et job, men de kan heller ikke bevise, at de syge nok til ikke at være jobparate. Det håndterer sagsbehandlerne ved at skabe deres egne termer, fx at en borger kan være en let, tung eller hård 2.2'er.
Mennesket bag en 2.2'er
Ifølge Anette C. M. Petersen hjælper sagsbehandlernes egne termer dem til at give borgerne den rette behandling og støtte (som ikke nødvendigvis kun handler om at skaffe et job), og forskningsartiklens konklusion er, at dette arbejde ikke uden videre erstattes af kunstig intelligens.
- Hovedpointen er, at hvis vi taler kunstig intelligens i jobcentrene, så er der en masse vigtig information om, hvad det vil sige at være en borger, som ikke er tilgængelig i den data, som AI-systemerne bruger til forudsige fx langtidsledighed ... Vores resultater har medført nogle spørgsmål om, hvorvidt man ikke bare kan finde andre sammenhænge i data, der identificerer som lette eller tunge 2.2'ere, og det er selvfølgelig rigtigt nok, men sagsbehandlerne sidder stadig til møder med borgerne og kan lugte, hvis der én, som lugter af alkohol eller hvis vedkommende bliver ked af det, når der bliver spurgt ind til helbredet. Så der er en masse fysiske "clues", som man endnu ikke kan tage teknologisk højde for, siger Anette C. M. Petersen, som ikke ser tegn i sol og måne på, at man ved hjælp af kunstig intelligens kan skabe it-systemer, som kan tage bedre beslutninger end sagsbehandlerne:
- De termer, som sagsbehandlerne bruger – er ifølge dem selv – ikke velegnede i et bureaukratisk system, og det er uanset, om vi taler kunstig intelligens eller andre systemer. Der er bare en masse ting, som sagsbehandlere ikke skriver ned, fordi det er mennesker, de har med at gøre, og mennesker er komplekse og foranderlige. Og ligeså snart du bruger historisk data til at forudsige fremtiden, så opstår der jo også en risiko for, at du kommer til at forstærke forholdene for de her mennesker og gøre dem permanente. Det er sagsbehandlerne meget opmærksomme på.
Hvordan bruger vi kunstig intelligens?
Hvor konklusionen i artiklen er kritisk i forhold til at bruge kunstig intelligens til at forudsige kontanthjælpsmodtagernes risiko for langtidsledighed, er der en optimisme i forhold til at bruge AI-teknologier til at hjælpe sagsbehandlerne med at opsamle den information, som de skal bruge i deres sager, på en måde, hvor vurderinger og vigtige beslutninger stadig ligger hos sagsbehandleren. Derfor håber Anette C. M. Petersen også, at artiklen i PACM HCI vil skabe debat om, hvad kunstig intelligens kan bruges til og ikke bruges til.
- Selv om det vi skriver om her foregår i en dansk kontekst, så har det jo stor relevans internationalt - og på et bredere niveau også. Det er med til at sætte fokus på nogle generelle udfordringer, som vi støder på, når vi arbejder med kunstig intelligens. Fx når det bliver brugt til forudsigelse af forbrydelser. Det, vi håber på med den her artikel, er jo også at få noget interesse fra dem, der udvikler systemerne, så vi kan debattere og arbejde sammen, og der er PACM HCI jo et godt sted at blive publiceret.
Ecoknow
Forskningsartiklen er blevet skrevet i forbindelse med det omfattende forskningsprojekt, Ecoknow, som har til formål at undersøge, hvordan digitale sagsbehandlingssystemer kan gøres mere intelligente, fleksible og gennemskuelige. Lederen af projektet, professor på Københavns Universitet, Thomas Hildebrandt (som også er medforfatter af artiklen) er særdeles tilfreds med, at det er lykkedes at få artiklen offentliggjort i en prominent udgivelse som PACM HCI. Faktisk er han dobbelt tilfreds, for artiklen får nemlig selskab af en anden Ecoknow-artikel: Street-Level Algorithms and AI in Bureaucratic Decision-Making: A Caseworker Perspective, der zoomer ind på sagsbehandlernes syn på anvendelse af AI til at støtte deres arbejde.
- Det er virkelig godt at vores arbejde i Ecoknow kommer ud, hvor den bliver set – og at der er så tydelig en interesse for forskning i AI, der ikke starter med en teknologisk løsning på et muligt problem, men starter med at observere sagsbehandlernes arbejde og tale med dem om deres syn på teknologien, så vi sammen kan identificere hvilke problemer, man bør og kan løses ved hjælp af AI,” siger Thomas Hildebrandt.
Læs mere om forskningsprojektet Ecoknow, som er finansieret af Innovationsfonden, på projektets hjemmeside
Læs forskningsartiklen på ACM's hjemmeside
Jari Kickbusch, Forskningskommunikatør, telefon 7218 5304, email jark@itu.dk