Atle Winther

Blog

AI midt i mellem mennesker

Vil mødet mellem mennesker fremover kunne indrettes bedre gennem kunstig intelligens? Og er det i mødet mellem mennesker, at vi skal skabe AI-modeller, så vi sparer tid, og derved bliver mere effektive?

Publiceret Senest opdateret

Bemærk

Denne artikel er flyttet fra en tidligere version af folkeskolen.dk, og det kan medføre nogle mangler i bl.a. layout, billeder og billedbeskæring, ligesom det desværre ikke har været teknisk muligt at overføre eventuelle kommentarer under artiklen.

Sprog bliver til data

Børns Vilkår kunne d. 19. februar 2020, orientere at de har indgået et samarbejde med virksomheden, Itelligence, som skal hjælpe børnetelefonens rådgivere med kunstigt intelligente løsninger.

Så vidt jeg kan forstå det, er der tale om en kunstig intelligent assistent, der ved hjælp af data, kan forudsige hvorvidt et barn udsættes for svigt Jf. Børns Vilkår:

“AI-systemet kan for eksempel fortælle rådgiveren, at ordvalget fra barnet med 94 procents sandsynlighed indikerer, at barnet er udsat for vold.” (*1)

Endvidere argumenteres der for AI-modellen på følgende vis:

"Forestil dig, at du har en kollega, som har statistisk paratviden på rygraden om mange tusinde samtaler med børn. Denne usynlige kollega lytter med og giver dig løbende gule post-it-sedler med gode råd, baggrundsviden eller hjælpsomme henvisninger."

På baggrund af ovenstående citater, antager jeg, at den data som medarbejderne på børnetelefonen fodres på de gule post-it-sedler bygger på lingvistiske analyser.

Atle Winther

Til dagligt er jeg programmør i Espergærde, men de seneste tre år har jeg også undervist i folkeskole- og privatskoleregi samt været frivillig i Coding Pirates. Herudover afholder jeg workshops i programmering i Gifted Children samt FOF. Bloggen henvender sig til undervisere på alle trin, som søger inspiration inden for teknologiens felter. Mit fokus vil være på de kreative aspekter, som programmering og kodning, software, robotter, 3D print og lignende. Jeg har en kritisk tilgang til it i folkeskolen og i samfundet og vil forsøge at skabe debat omkring de teknologibegejstrede strømninger, som, jeg synes, kendetegner dele af folkeskolens undervisning.

Processen og de 94%

Processen bag virker hermetisk lukket, når man spørger aktørerne bag projektet. Men mit gæt vil være, at Itelligence har brugt metoder inden for Natural Language Processing(*2) samt speech recognition i bearbejdelsen af data. To forskellige discipliner, der hver især bygger på menneskers lingvistiske interaktioner. Derfra kan man træne modellen, så man vha. algoritmer kan forudsige et ord eller en sætnings nøjagtighed. I hvert fald på papiret. For her bliver kunstig intelligens nemlig hamrende komplekst.

Med en sandsynlighed på 94 procent, antager jeg dermed også, at man ikke har haft tilstrækkeligt med data til at kunne forudsige noget højere tal. Inden for AI kan en sandsynlighed på 94 procent være et brugbart tal, mens 94 procent inden for eksempelvis udregning af en MRI-scanning ikke ville være brugbart. Her er vi oppe på algoritmer, der kan udregne med 99 procent sandsynlighed.

Det kan også være, at der er andre årsager til at der højst kan være en sandsynlighed på 94 procent. Fx om indsamlingen af data er foregået optimalt. Metoden som børnetelefonen har benyttet til indsamling af data er således denne: “Baseret på analyser af data fra tusindvis af chats og samtaler på Børnetelefonen”.

Sammenfattet kan man altså konkludere, at hvor en MRI-scanning består af statiske pixels, der udregnes, så er sprog og menneskelig interaktion ikke statisk. Derfor egner kunstig intelligens sig da også bedre til statisk interaktion mellem menneske og computer. Der er jo goså en grund til, at vi ikke kan købe selvkørende, intelligente, biler endnu.

Hvor pålidelig er dataen

Da børnetelefonen er et anonymt organ, formoder jeg at meget, relevant, data ikke er blevet brugt. Fx kunne et vigtigt paramter være barnets socioøkonomiske baggrund, da dette må formodes at spille ind ift sprogbrug.

Er man eksempelvis fra et hjem med klaver, hvor politiske og kulturelle diskussioner foregår hen over aftensmaden, eller kommer man fra et hjem, hvor man sætter sig, der hvor man har lyst, når der serveres aftensmad. Måske kommer man fra et hjem hvor man selv står for aftensmaden, hvis den skal blive til noget.

Vi omddanner ord og sætninger fra vugge til grav, og vores sprog er i høj grad præget af vores omgivelser. Alle børn har det ligeså svært, hvis far drikker og slår mor, men sproget kan være anderledes.

Hvornår kan dataen bruges

Og netop her bliver statistik og vores forståelse for kunstigt intelligente løsninger I vores daglige arbejde, til en ekstremt vigtig I håndteringen af vores arbejde. For hvornår kan vi bruge dataen og hvornår er den overflødig? Og hvornår lyver den for os?

På trods af, at jeg har forhørt mig, ved jeg ikke, på hvilken baggrund Itelligence er nået frem til, at de kan udregne med 94% nøjagtighed.  Jeg kunne ønske mig at vide, hvorvidt man har benyttet kliniske studier, om man har trænet sine data på forskellige forsøgsgrupper med forskellige baggrunde som alder, geografi, socioøkonomisk baggrund osv? Eller bygger man alene de 94% nøjagtighed ud fra algoritmer?

Er dataen eksempelvis så generaliserende, at man i forvejen kan være 94 procent sikker på, at alt hvad AI-modellen forudsiger er 94% sandsynlig? Mit skøn er, at den først skal fodres med data ude fra, før den kan udsige specifikke analyser om det enkelte barn, som ringer ind. Vil man da have nok baggrundsdata?

Sprogpsykologi

Foruden at den kunstigt intelligente model, skal være designet korrekt, antager jeg som nævnt, at modellen ikke er 94% sikker fra start. Den kræver som nævnt data.

Netop her er det relevant at se på den sprogpsykologi, der foregår mellem barnet i den ene ende og børnetelefonens rådgiver i den anden. Kræver det eksempelvis ledet stillede spørgsmål for at opnå det “rigtige” ordvalg, inden algoritmerne bag AI-modellen opnår en sandsynlighed på 94 procent? I så fald kan en sandsynlighed udregnes på et forkert grundlag; nemlig at rådgiveren hos børnetelefonen har søgt de “rigtige” ord – omend det sagtens kunne være ubevidst.

På baggrund af ovenstående eksempel, får vi derfor både barnets narrative udlægning af samtalen, børnetelefonens rådgivers, og AI-modellens. Alle tre med vidt forskellige måder at forholde sig til sproget på:

Barnet der har tilpasset sig sproget gennem den sproglige udvikling fra spæd til nu. De psykologiske processer barnet har gennemgået gennem familie, skole, venskaber, fritidsaktiviteter mv. Samt de pædagogiske og de didaktiske rammer som skolen og fritiden, skaber for barnet, er alt sammen medvirkende til at danne et sprog.

Børnetelefonens rådgiver har på samme måde dannet sit eget sprog. Men samtidig er han/hun også præget af en faglighed, og en praktisk erfaring, som har dannet vedkommendes kompetencer til at sidde bag børnetelefonen. Og disse kompetencer og dannede erfaringer til at løse problemstillinger har jeg fuldt ud tillid til.

Det skal dog bemærkes, at AI-modellen bliver et frivilligt redskab for den enkelte hos børnetelefonen.

AI er ikke biased som et menneske (måske) er

Nogle vil pege på, at det netop er godt med en AI-model, fordi den modsat mennesket ikke selv kan tænke. Den er blevet fodret med data, som den med en vis sandsynlighed kan estimere nye resultater eller ud fra, når den modtager nye input. Hos børnetelefonen vil input således ske gennem chat eller telefonisk samtale. I modsætning til et menneske er en AI-model ikke forudindtaget. Det vil nogle nok sige er argument nok for at benytte AI mellem mennesker. Og hermed kan vi så fjerne en hver rest af tillid til mennesket.

Som argument for AI-modellen bruger børnetelefonen:

“én af ideerne med projektet er at kunne nå endnu flere børn, så andelen af ubesvarede henvendelser går ned.”

Og netop tid og effektivitet er parametrer, som går meget godt i tråd med Regeringens AI-strategi(*3).

Tid, besparelser og effektivitet

Jeg er ikke I tvivl om at 2020 blev startskuddet på et AI-kapløb mellem it-virksomheder, som i stigende grad vil løbe med udbud fra det offentlige og fra organisationer omkring udarbejdelsen af AI-modeller.

Den indgriben og den manglende kontrol over vores data, er datatilsynet paradoksalt nok et godt eksempel på som eksemplificering. De har nemlig givet Region Hovedstaden(RH) tilladelse til at indhente personoplysninger fra børn. Nærmere specifikt har de imødekommet Region Hovedstadens ønske om at:

"der er tale om oplysninger om børn i alderen 8-12 år (60 børn med Tourettes syndrom, 26 børn med ADHD, 19 børn med Tourettes syndrom og ADHD og 55 raske kontrolbørn).(*4)

Forbedrer AI mødet mellem barn og voksen?

Men er vi nået dertil, hvor vi kan være sikre på, at kontakten mellem barn og voksen, kan forbedres gennem teknologiske løsninger? Vil mødet mellem mennesker kunne indrettes bedre gennem kunstig intelligens? Og er det i mødet mellem mennesker, at vi skal skabe AI-modeller, så vi kan spare tid, så vi derved bliver mere effektive?

Det skal nævnes, at jeg er stor tilhænger af børnetelefonen og har en kæmpe respekt for deres arbejde. Det er ingenlunde mit ærinde, at sætte spørgsmålstegn ved organisationen. Men jeg tillader mig at sætte spørgsmålstegn ved AI som løsning på kontakten mellem barn og voksen.

Hjælper vi børn bedst ved, at vi har målbare data om dem, og hjælper vi bedst, når vi sidder over for et barn med et akut behov for omsorg og menneskeligt nærvær, ved at vi kan kigge hen på en computerskærm som sammenligner analyser? Eller er empati, nærhed og menneskelig omsorg hellere at foretrække?

Personligt foretrækker jeg det sidste.

Nogle ville måske mene, at det ene ikke udelukker det andet, og at jeg er for firkantet. Jeg anerkender, at man i nogle tilfælde kan bruge en computer som "sparringspartner" mellem mennesker. Men hvis algoritmer bruges for at gøre vigtig menneskeligt nærvær til et spørgsmål om effektivitet og forløsning af ressourcer, så er AI ikke løsningen, men derimod politiske løsninger.  

Det haster med en strategi

Ud fra ovenstående betragtninger, mener jeg det haster med at få indført en AI-strategi på børne og ungeområdet. Og ikke mindst en debat. Den skal og bør vi som arbejder med børn og unge tage. For hvornår er teknologi berettiget i mødet mellem mennesker. Og hvornår bliver den eksempelvis uetisk.

1) https://bornsvilkar.dk/nyheder/kunstig-intelligens-skal-hjaelpe-boerns-vilkaar-med-at-naa-endnu-flere-boern/

2) https://en.wikipedia.org/wiki/Natural_language_processing

3) https://www.regeringen.dk/media/6537/ai-strategi_web.pdf

4) https://www.datatilsynet.dk/tilsyn-og-afgoerelser/tilladelser/2019/apr/2018-522-0093/