Skip to content

Ro på!

Ro på!

Frygten for den stigende brug af chatbots er ude af proportioner, mener professor i kommunikation og etik Thomas Ploug. Han maner også til besindighed, når det handler om ChatGPT’ens uanede muligheder. Der er dog ét punkt, hvor vi skal være ekstra opmærksomme, mener han: Nemlig i forhold til chatbotters potentiale for at kontrollere adfærd og holdninger. Det risikerer at blive en bombe under vores demokrati.

Tekst / Laura Engstrøm
Foto / Joachim Rode
Udgivet / Maj 2023

Lyt til artiklen her

Hvem er Thomas Ploug? Det spørgsmål stillede Thomas Ploug for nyligt ChatGPT’en, den meget omtalte chatbot, der er trænet i at skrive menneskeligt og naturligt, så man kommer i tvivl om, hvorvidt teksten vitterligt er skrevet af en maskine. Den spyttede et svar ud.

”Noget var korrekt, og så var der meget, der absolut ikke var. Den gjorde mig blandt andet til forfatter af en bog om AI, som jeg ikke har skrevet. Det giver på sin vis mening, for de tekster, som chatbotten er fodret med, vil kæde mit navn sammen med AI, men jeg var og er ikke forfatter til den pågældende bog. Den mente også, at jeg havde arbejdet på Århus Universitet, men der har jeg aldrig været ansat,” siger Thomas Ploug.

Og hvem er han så, professoren i dataetik ved Institut for Kommunikation på Aalborg Universitet, som netop nu sidder i sin Tesla, mens han taler med Kommunikation og Sprog? Ja, han er tidligere medlem af Etisk Råd. Han har skrevet en lang række forskningsartikler om etiske aspekter af AI og databrug og også bogen ’Ethics in Cyberspace’. Og så har han i mange år beskæftiget sig med etiske spørgsmål om medicin og teknologi.

I den senere tid har han haft mere end almindeligt travlt, især med at svare på spørgsmål fra journalister. Som en af landets førende eksperter indenfor etik og teknologi har de villet høre hans svar på, om vi skal være bange for chatbots.

Harmløse chatbots

Spørgsmålene kom i kølvandet på, at Italien trak i håndbremsen og satte brugen af ChatGPT på hold. Mistanken lød på ulovlig indsamling af data og manglende mulighed for at verificere brugernes alder. Dertil kommer, at 1.000 af techverdenens fremtrædende aktører, blandt andet Elon Musk og Steven Wozniak fra Google, har skrevet under på, at udviklingen af chatbots bør sættes på pause.

Røde lamper blinker derude, og man ser skrækscenariet: Et samfund, hvor de fleste funktioner er erstattet af robotter, og hvor mennesker bliver fremmedgjort for sig selv og hinanden, fordi man ikke kan komme til at tale med nogen, men kun en bot, der svarer på FAQ.

Det er stadigvæk en forsvindende lille del af den kunstige intelligens, der bruges til at mislede folk. Langt det meste tjener hverdagsagtige formål, som nu hvor jeg sidder her og kører i bil, hvor en stor del er styret af kunstig intelligens

Thomas Ploug

”Vi skal passe på med for hurtige konklusioner,” siger Thomas Ploug.

”Om vi skal være bange for den kunstige intelligens, er jo delvist et empirisk spørgsmål. Vi må holde fast i en dokumentation af tingenes tilstand, før vi kan sige noget om det. Debatten har typisk handlet om muligheden for at manipulere mennesker og desinformere dem. Men her taler vi jo om bevidst vildledning og misinformation. Det er jo ikke den intention, der ligger bag udviklingen af chatbots,” siger Thomas Ploug.

”Det er stadigvæk en forsvindende lille del af den kunstige intelligens, der bruges til at mislede folk. Langt det meste tjener hverdagsagtige formål, som nu hvor jeg sidder her og kører i bil, hvor en stor del er styret af kunstig intelligens. Eller den quiz, jeg netop har bedt ChatGPT’en lave. Jeg bruger også bots til oversættelse af tekster, for eksempel spørgeskemaundersøgelser. Det er jo helt harmløst og meget gavnligt,” fortsætter Thomas Ploug.

Men lige så imponeret man kan være over ChatGPT’en, lige så mange elementære fejl laver den. Som Thomas Ploug siger:

”Beder man den lave x antal opgaver, vil der være fejl i 95 % af dem. Bot’en kan ikke erstatte menneskeligt arbejde 100 %, og man er nødt til at lave en kritisk gennemlæsning af de tekster, den skriver, for der er risiko for faktuelt forkert information.”

Etisk problematisk

Problemet opstår paradoksalt nok der, hvor AI-systemer ligner dets skabere for meget. Et berømt eksempel stammer fra systemet COMPAS, der i det amerikanske retsvæsen bliver brugt til at vurdere indsattes risiko for at begå ny kriminalitet og ryge tilbage i fængsel. Her bruger systemet datadrevne modeller, og en analyse af systemet viste, at farvede fik en højere score end hvide. Altså åbenlys diskrimination.

Et andet eksempel stammer fra Amazon, der brugte kunstig intelligens som et rekrutteringsværktøj. Softwaren var designet til at løbe igennem CV’erne for at finde den bedst kvalificerede til stillingen, men endte med at diskriminere kvindelige ansøgere.

”Mangel på præcision og bias i AI-modellerne kan blive voldsomt etisk problematiske,” siger Thomas Ploug.

Men chatbots kan også være velkomne i et etisk perspektiv, tilføjer han:

”Hvis jeg henvender mig til lægen og fortæller om mine symptomer, har jeg måske mere lyst til at fortælle det til en chatbot end til sekretæren. En AI-agent kan også sagtens være behjælpelig med, hvilke felter man mangler for at udfylde nogle blanketter, men ansvaret for at stille diagnosen skal stadig ligge hos lægen.”

Omrokering af arbejdsmarkedet

Til dem, der skulle være nervøse for at miste deres job, ja, så mener Thomas Ploug, at chatbots’ene vil skabe nye jobs, andre vil forgå. Det gælder ikke kun oversættere, der snarere vil få en rolle som redaktører eller kritiske læsere, men også journalister og kommunikationsmedarbejdere, der sandsynligvis vil komme til at arbejde anderledes end nu.

”Det er stadig for tidligt at sige, hvordan chatbots’ene vil påvirke arbejdsmarkedet. Men hvis man ser på mediebranchen, kunne man sagtens forestille sig, at man bruger bots til at skrive de korte nyhedsartikler. Mange af dem bliver i forvejen produceret af Ritzau. Journalisterne kan så bruge arbejdstiden på de lange features eller på at tænke kreativt og få originale ideer til features og baggrundsartikler. Chatbots har deres begrænsning i de længere tekster, så der vil man typisk stadig bruge journalister og redaktører.”

Ligesom fakta skal tjekkes, ja, så bør kommunikationsafdelinger også være ærlige i deres kommunikation. Beder man chatbot’en forfatte ’personlige’ indlæg, bør man tænke sig om en ekstra gang, mener Thomas Ploug.

”Er teksten skrevet som en dagbog, hvor læseren skal føle, at man kigger ind i afsenderens sjæl, går det ikke, hvis kunden bagefter finder ud af, at teksten er forfattet af en algoritme. Så vil han eller hun jo føle sig ført bag lyset.”

Det samme gælder kunders irritation over chatbots, der ikke svarer på det, man spørger om. En overdreven brug af chatbots kan i sidste ende skabe større irritation end velvilje hos kunden.

”Som kommunikatør må man stille sig spørgsmålet: Hvilken relation vil man have til sine læsere? Føjer kommunikationen en dimension til helhedsfornemmelsen og noget, man ikke kan undvære? Vil man gerne have et medie med autenticitet, hvor man kommunikerer fra menneske til menneske? Eller vil man spare penge og springe over, hvor gærdet er lavest og skamhøste de lavthængende frugter?”

Thomas Ploug

Det er stadigvæk en forsvindende lille del af den kunstige intelligens, der bruges til at mislede folk. Langt det meste tjener
hverdagsagtige formål.

Diskrimination

Ét er den kommunikation, en virksomhed udsender, noget andet er den digitale virkelighed, kommunikationen indgår i. Et af de gentagne spørgsmål, Thomas Ploug får, handler om ansvar. Kan man stille en chatbot til ansvar? Foreløbigt er svaret nej.

”I nogle situationer giver det bedst mening at placere ansvaret hos udviklerne, i andre situationer må det ligge hos dem, der bruger chatbots’ene,” siger Thomas Ploug.

Tidligere i år lagde ægteparret Gonzalez sammen med 100 organisationer sag an mod Google. De to er forældre til Reynolds Gonzalez, der mistede livet under terrorangrebet på spillestedet Bataclán i Paris i 2015. Anklagen lød på, at Google, der ejer YouTube, har et medansvar for radikaliseringen af ekstremistiske holdninger, og at Google i sidste ende har ansvaret for terrorangreb opildnet af YouTubevideoer.

Højesteret er netop nu ved at se på lovgivningen, der siden 1996 har fritaget techgiganterne for ansvaret for indholdet på internettet. Men gælder det også, når man designer algoritmer, der aktivt foreslår mere indhold som det, man netop har set?

”Ekkokamrene på internettet, hvor man blot møder det, man selv søger på, er jo ikke noget, der er sket over night. Det er udviklet med internettet over mange år, og vi har fået en algoritmestyret virkelighed, der kan være et alvorligt problem for samfundsudviklingen og følelsen af fællesskab, fordi det skaber større polarisering. Hvis folk slet ikke møder synspunkter eller holdninger, der strider mod deres egne, er det jo en bombe under demokratiet. Det er noget, man må holde øje med,” siger Thomas Ploug.

Uddannelse, uddannelse, uddannelse – det er svaret på kritikken og frygten for, at chatbots’ene overtager debatter, og at algoritmerne pisker en stemning op.

Samme årvågenhed bliver undervisningsinstitutioner nødt til at have, især når det er blevet så nemt for elever at ’skrive’ opgaver. En af løsningerne kunne være, at man i langt højere grad burde eksaminere mundtligt, mener Thomas Ploug.

Men Thomas Ploug er ikke så bekymret, at han mener, at man bør stoppe udviklingen af kunstig intelligens.

”Kunstig intelligens er en potent teknologi, der så afgjort kan gøre skade på mennesker og samfund, men det er også en teknologi, der rummer et stort potentiale for at skabe velfærd. Som udviklingen sker nu, ser jeg ikke tegn, der får mig til at sige, at man bør stoppe udviklingen. Men vi bør diskutere, hvilket samfund vi gerne vil have og være varsomme med kun at bruge kunstig intelligens til at understøtte den samfundsmodel. I Vesten er det nok de færreste, der ønsker et kinesisk system, hvor overvågningen og profileringen af befolkningen er langt mere omfattende,” siger Thomas Ploug.

Han skal videre. Forelæsninger venter. Og endnu kan Thomas Plougs bil ikke køre ham helt til dørs, mens han tager sig en lur undervejs. ●

Tekst / Laura Engstrøm
Foto / Joachim Rode
Udgivet / Maj 2023

Kommagasinet er udgivet af Kommunikation og Sprog - fagforeningen for dig, der elsker kommunikation, sprog og marketing.

Medlemsfordele

Se hvad du kan få ud af et medlemskab hos Kommunikation og Sprog

Back To Top
Search
Share via
Copy link
Powered by Social Snap