ITU-forsker vil gøre AI mere troværdig
Lektor Christian Hardmeier har sikret 7,18 millioner kroner fra Danmarks Frie Forskningsfond. Bevillingen gives til et projekt, der undersøger, hvordan store sprogmodeller bedre kan kommunikere usikkerhed til brugerne.
Christian HardmeierForskningbevillingerkunstig intelligens
Skrevet 21. november 2025 07:29 af Theis Duelund Jensen
Store sprogmodeller som ChatGPT kan besvare selv komplekse spørgsmål, der kræver specialiseret viden, på få sekunder. Men selvom disse systemer ofte lyder overbevisende, er deres svar ikke altid korrekte. Det kan vildlede brugere, herunder eksperter, til at stole på unøjagtige oplysninger.
Et forskningsprojekt, ledet af Christian Hardmeier på IT-Universitetet i København, har til formål at gøre AI-systemer mere transparente og troværdige ved at forbedre, hvordan de udtrykker usikkerhed.
”Når vi interagerer med samtaleagenter, ved vi sjældent, hvor meget vi kan stole på deres svar,” siger Christian Hardmeier. ”De nuværende systemer har en tendens til at lyde meget sikre, selv når de ikke er det. Vores mål er at gøre disse systemer mere transparent, når de kommunikerer om, hvad de ved og ikke ved.”
Forskningen kombinerer maskinlæring og lingvistik. På den tekniske side vil holdet udvikle metoder til at kvantificere usikkerhed i store sprogmodeller ved hjælp af bayesianske principper. Disse metoder skal kunne skaleres til modeller med milliarder af parametre – en stor udfordring for de nuværende teknikker.
Men tal alene er ikke nok. ”En konfidensscore på 73 % giver måske mening for en statistiker, men ikke for en 10-årig,” forklarer Hardmeier. ”Vi vil bruge sproglige strategier – som at anvende ord som ‘måske’ eller ‘sandsynligvis’ – så usikkerhed kommunikeres på en måde, folk kan forstå. Og afgørende er, at disse udtryk skal matche modellens faktiske sikkerhed.”
Projektet vil fokusere på sundhedsapplikationer, hvor klarhed og tillid er afgørende. I samarbejde med partnere som Virtu Research Group fra Region Hovedstaden vil holdet undersøge, hvordan forskellige brugere – patienter og sundhedsfagligt personale – har behov for, at usikkerhed udtrykkes forskelligt. For eksempel kan en læge have brug for at kende til sjældne, men alvorlige risici, mens en patient måske er bedre tjent med beroligelse frem for alarmerende scenarier med lav sandsynlighed.
For at opnå dette vil projektet også trække på eksperimentel lingvistik. Professor Hannah Rohde fra University of Edinburgh vil lede studier af, hvordan folk fortolker udtryk for usikkerhed, og sikre, at sproglige signaler stemmer overens med numeriske konfidensestimater.
”I sidste ende handler det om troværdighed,” siger Hardmeier. ”Hvis AI-systemer altid lyder sikre, uanset deres faktiske sikkerhed, kan brugerne ikke stole på dem – især i områder med høje risici som sundhedssektoren.”
Projektet har titlen “Conveying Caution & Confidence: Quantification and Communication of Uncertainty in Large Language Models.” Det vil blive gennemført på IT-Universitetet i København i samarbejde med DTU Compute og University of Edinburgh.
Theis Duelund Jensen, Presseansvarlig, telefon +45 2555 0447, email thej@itu.dk