Skip to main content
DA / EN

Kunstig intelligens

Hvordan håndterer ChatGPT moralske dilemmaer?

ChatGPT fascinerer brugere verden over. Men hvad sker der, når man konfronterer botten med moralske dilemmaer, og hvordan reagerer brugerne på det? Det har vi spurgt lektor Andreas Ostermaier om her.

Af Marlene Jørgensen, , 25-05-2023

Billede af papegøje, der kaster terninger. Stokastisk dilemma

Hvad er udfordringerne ved kunstig intelligens og moralske overbevisninger?

- ChatGPT gør kunstig intelligens (AI) tilgængelig for alle, og som brugere er vi forbløffede over, hvad den kan. Botten er sjov at chatte med og giver også nyttige oplysninger. Den er rimeligt ferm til at lave ens lektier og eksamensopgaver.

- Brugerne synes, at ChatGPT er underholdende og nyttig, og de tror, at de har magten. ChatGPT påvirker dog vores vurderinger og beslutninger. Den kan endda træffe beslutninger for os, uden at vi er klar over det.


Brugerne er mere modtagelige over for ChatGPTs indflydelse, hvis de er usikre på, hvordan de skal håndtere et moralsk dilemma og har mere brug for rådgivning. Det er bekymrende, fordi de fordele og ulemper, ChatGPT stiller op, er stort set tilfældige. Man kan lige så godt slå plat og krone.

Andreas Ostermaier, lektor

- ChatGPT kan bedst beskrives som en ”stokastisk papegøje”. Den er ligeglad med, om det, den fortæller, er sandt eller falsk og rigtigt eller forkert. Den kan ikke tage ansvar for noget, og da slet ikke de beslutninger, vi træffer ud fra, hvad botten fortæller os.

- Brugernes største udfordring er at tage AI for, hvad det er – en stokastisk papegøje – og at træffe deres egne beslutninger og påtage sig det fulde moralske ansvar for dem. Desværre er det lettere sagt end gjort, for brugerne er ikke klar over, hvor meget de påvirkes af AI.

Du og kolleger har lavet et eksperiment om ChatGPT og moralske spørgsmål. Hvad fandt I ud af?

- Vi fandt ud af tre ting. For det første har ChatGPT ikke en konsekvent moralsk holdning. Hvis du stiller ChatGPT det samme moralske spørgsmål to gange, vil du muligvis få modsatrettede råd. Vi spurgte ChatGPT indtil flere gange, om det var rigtigt at ofre ét liv for at redde fem. Den argumenterede nogle gange for at ofre et liv, og andre gange imod.

- For det andet påvirkes brugerne tydeligt af ChatGPT. De følger selvfølgelig ikke ChatGPTs råd slavisk, men de foretager forskellige vurderinger afhængigt af, hvad botten fortæller dem. Hvis ChatGPT fortæller brugerne, at det er rigtigt at ofre et liv, er de mere tilbøjelige til at vurdere, at det er tilfældet. Hvis ChatGPT siger, at det er forkert at ofre et liv, er de mere tilbøjelige til at vurdere, at det ikke er tilfældet.

- For det tredje – og det, synes vi er mest interessant – så er brugerne ikke klar over, hvor meget ChatGPT påvirker dem. Da vi spurgte deltagerne i vores undersøgelse, om de ville have truffet den samme beslutning med og uden ChatGPTs råd, svarede de fleste, at det ville være tilfældet. Sagt på en anden måde mente de, at deres vurderinger ikke var påvirket af rådgivningen. De beslutninger, de siger, at de ville være nået frem til uden rådgivningen, varierer dog stadig afhængigt af det pågældende råd. Derfor har de ikke indset, at ChatGPT påvirker dem.

I hvilket omfang påvirkes brugerne af ChatGPTs råd om moralske spørgsmål?

- Det afhænger af spørgsmålet. Helt konkret spurgte vi deltagerne om ét ud af to dilemmaer: Er det rigtigt at skubbe en fremmed ud på skinnerne for at forhindre en løbsk vogn i at dræbe fem mennesker? Er det rigtigt at få den løbske vogn til at skifte spor, så den dræber én person i stedet for fem?

- I begge tilfælde påvirkes deltagerne af ChatGPTs svar. Påvirkningen er dog større, når det drejer sig om at skubbe den fremmede ud på skinnerne. Hvis ChatGPT argumenterede imod at skubbe den fremmede, mente de fleste deltagere, at det var forkert at gøre det. Hvis botten argumenterede for at skubbe den fremmede, mente de fleste, at det var det rette at gøre.

- Dilemmaet med at skubbe den fremmede er sværere. I begge tilfælde bestemmer man, om man vil ofre ét liv for fem. Ikke desto mindre synes de fleste mennesker, at det er værre at skubbe nogen ud på sporene og dræbe vedkommende end at trække i et håndtag, hvor vedkommende dør som følge heraf.

- Vi har en fornemmelse af, at brugerne er mere modtagelige over for ChatGPTs indflydelse, hvis de er usikre på, hvordan de skal håndtere et moralsk dilemma og dermed har mere brug for rådgivning. Det er bekymrende, for de fordele og ulemper, ChatGPT stiller op, er stort set tilfældige. Man kan lige så godt slå plat og krone.

Hvad vil du foreslå, at vi gør for at holde snor i AI?

- Gennemsigtighed er et almindeligt krav. Kravet om gennemsigtighed forudsætter, at brugerne anvender AI ansvarligt, hvis de ved, at de har med kunstig intelligens at gøre. Vi var dog åbne om ChatGPTs rolle i eksperimentet. Vi fortalte endda deltagerne, at det er en chatbot, der efterligner menneskeligt sprog, men det gjorde ikke dens indflydelse mindre.

- Ansvarlig brug af AI har to sider. Når det gælder AI, kan lovgivningen kræve, at AI identificerer sig selv som sådan, giver afbalancerede svar og endda undlader at besvare visse spørgsmål. Man kan dog ikke gøre en chatbot fuldstændig sikker, og det ville i givet fald resultere i en meget kedelig og ubrugelig chatbot.

ChatGPT kan bedst beskrives som en ”stokastisk papegøje”. Den er ligeglad med, om det, den fortæller, er sandt eller falsk og rigtigt eller forkert. Den kan ikke tage ansvar for noget, og da slet ikke de beslutninger, vi træffer ud fra, hvad botten fortæller os.

Andreas Ostermaier , lektor

- For brugernes vedkommende er det bydende nødvendigt, at de har lært at anvende AI ansvarligt. Som udgangspunkt skal vi gøre det muligt for brugerne at forstå begrænsningerne ved AI. Spørg eksempelvis ChatGPT om ulemperne, hvis den har fortalt dig om fordelene. Dobbelttjek med en anden bot, lav din egen søgning for at bekræfte de oplysninger, den giver dig, og prøv at tale med folk omkring dig.

- AI har et enormt potentiale. Vi bliver nødt til at finde os i det, og det er jeg sikker på, at vi kan. Hvis du vil tabe dig, ødelægger du ikke din mad, men overtager kontrollen over, hvad og hvor meget du indtager. Vi er nødt til at gøre det muligt for brugerne - helt på grundskoleniveau - at tage magten over AI.

Læs hele undersøgelsen i Nature:
ChatGPT’s inconsistent moral advice influences users’ judgment

Mød forskeren

Andreas Ostermaier er lektor ved Institut for Virksomhedsledelse på SDU. Hans forskningsområder er regnskab, AI-etik og forretningsetik.

Kontakt

Redaktionen afsluttet: 25.05.2023