SDU-forskeres algoritme kan blive et vigtigt skridt mod privatliv i en AI-tid
Hvis man som bruger vil sikre sit privatliv, er det ikke nok at bede techvirksomhederne slette ens data. Det, virksomhedernes AI-modeller har lært fra dataen, skal også aflæres. Det har forskere fra SDU Applied AI and Data Science nu fundet en måde at gøre, uden at modellerne bliver dårligere.
I Europa har vi ret til at blive digitalt glemt.
Med GDPR-lovgivningen i hånden kan du som brugeranmode om, at techvirksomhederog andre digitale aktørersletter alt, hvad deres systemer ved om dig. Det involverer ikke bare at slette en masse indsamlet data, men også alt det, systemerne har lært fra den data.
Det er imidlertid virkelig svært og har indtil nu ikke kunnet lade sig gøre i større systemer.
Ofte vil det nemlig forringe AI-modellerne markant, hvis man begynder at pille dele af den tillærte viden ud, og det ville kræve urealistisk meget computerkraft helt at gentræne modellerne, hver gang man har fjernet noget træningsdata.
Nu har AI-forskerne VinayChakravarthiGogineni og EsmaeilNadimi fra Syddansk Universitet fundet en lovende løsning på problemet.
De har udviklet en algoritme, der gør AI-modeller i stand til at aflære det, de har lært fra specifikke datapunkter, uden at AI-modellerne bliver dårligere. Metoden har de beskrevet i en artikel i det toneangivende tidsskrift Journal of Machine Learning Research.
- GDPR-lovgivningen gør det til en bunden opgave ikke kun at arbejde med maskinlæring, men også med maskinaflæring, så det her er noget, rigtig mange arbejder på lige nu, siger lektor VinayChakravarthiGogineni.
- Vi håber, at vi med vores algoritme kan bidrage til større datasikkerhed og privatliv for brugerne.
Målrettet sletning
Det var EsmaeilNadimi, der er professor og leder af forskningsgruppen SDU Applied AI and Data Science, som for to år siden gik ind på Vinay Chakravarthi Goginenis kontor med den første grundlæggende idé til algoritmen. Siden da har lektoren arbejdet videre på ideen, indtil algoritmen i sommeren og efteråret 2025 var så god, at de turde løfte sløret for den.
- Meget forsimplet kan man sige, at algoritmen kan finde frem til de dele af et neuralt netværk, som har med de specifikke datapunkter at gøre, så man kan slette dem – og kun dem. Algoritmen fokuserer udelukkende på de specifikke neuroner, som kan bruges til at identificere en bruger, ikke alle de generelle, forklarer Esmaeil Nadimi.
Tag for eksempel ansigtsgenkendelsen på din telefon. Alle dele af systemet, som har med dit specifikke ansigt at gøre, skal slettes, men at teknologien måske lært noget generelt om ansigters elliptiske form ud fra din data, er ikke afgørende for dit privatliv og behøver derfor ikke at slettes.
- Det er den her meget målrettede sletning, der gør, at vores algoritme ikke forringer AI-modellernes performance, siger Vinay Chakravarthi Goginenis
Arbejder videre
Ifølge de to forskere vil databeskyttelse og privatliv blive vigtigere og vigtigere i de kommende år, og flere og flere mennesker vil formentlig kræve at blive digitalt glemt.
De nævner selv risikoen for at blive profileret ud fra interesser, politisk observans, seksualitet og så videre, hvilket potentielt kan misbruges, og muligheden for, at falske videoer og billeder af én kan blive spredt for at skade ens omdømme. Og så er der sundhedsdata, som vi måske af gode grunde deler med forskere og myndigheder, men som kan blive følsomme på et senere tidspunkt i vores liv:
- Medicinsk og genetiskedata afslører ekstremt meget om en person. En almindelig borger i dag kan om ti år være politisk leder eller have en samfundskritisk rolle, og så må sundhedsdata ikke kunne afsløre sårbarheder, forklarer Vinay Chakravarthi Gogineni.
Derfor arbejder forskerne nu videre på algoritmen. Hvor de i begyndelsen koncentrerede sig om ansigtsgenkendelse, er fokus lige nu på at bruge den på de store sprogmodeller og billedgeneratorer.
Planen er også snart at ansætte en ph.d.-studerende, der kan hjælpe dem i arbejdet, og at indgå partnerskaber med virksomheder og teste algoritmen yderligere.