Blog

AI og de etiske overvejelser

Generativ AI rejser spørgsmål til det etiske at bruge de store datasæt - som vi ikke ved så meget om.

Offentliggjort Sidst opdateret

AI-tsunamien er over os, og det sidste års tid har tech-industrien for alvor rullet deres kunstige intelligens ud.

Man taler ligefrom om et paradigmeskifte inden for kunstig intelligens. Den store forskel på "gammel" AI og den hypede, generative AI, som nu er kommet på alles læber er, at generativ AI kan producere originale resultater, som ikke er baseret på tidligere eksisterende data. Generativ AI er nemlig ikke programmeret ud fra definerede menneskelige regler og logikker. Ud fra den enorme mængde data, som den bliver fordret med er den i stand til at forstå kontekst fra data på egen hånd. Den træner med andre ord sig selv.

Allerførst vil jeg udtrykke min store begejstring for det potentiale der findes med generativ AI. Det kommer til at åbne op for helt nye muligheder inden for medicin, grøn energi, økonomi og mange andre områder som eksempelvis kræver kompleks simulering ol.

Imidlertid rejser den nye teknologi også en række bekymringer. Det er for det første meget dyrt at udvikle teknologien, idet det kræver store, specialiserede mængder data. I øjeblikket er hovedvægten af data centraliceret hos kommercielle aktører som Google, Facebook, Amazon, Apple, Hugging Face og Microsoft. Disse virksomheder har invisteret betydelige ressourcer i at indsamle, opbevare og udnytte data til forskellige formål, herunder altså træning af AI-modeller.

Det er et problem, at offentligheden ikke har adgang til datasættene. Der mangler transparens for, hvordan data er bliver indsamlet. Kan vi i det hele taget være sikre på at den data, som eksempelvis understøtter Chat GPT, er nuanceret og danne et repræsentativt globalt udsyn. Hvordan sikrer man sig at data ikke er biased, når udviklerne er lukkede omkring deres metoder til at indsamle data. Hvordan modererer udviklerne den indsamlede data for had og screener den for diskriminerende retorik.

Selvom generativ AI har et enormt potentiale, mener jeg at man bør være varsom med at bruge den. Der mangler overblik og forståelse for de begrænsinger og potentielle risici, der følger med teknologien. Det rejser ikke mindst spørgsmål om, hvorvidt det i det hele taget er etisk at inddrage teknologier med så store datasæt, som vi faktisk ikke ved særligt meget om.

Her er en række ressourcer som stiller skarp på problematikken:

Stanford University CFRM har optaget en række workshops om datasæt: https://crfm.stanford.edu/workshop.html

IBM har tilsvarende ressourcer: https://research.ibm.com/blog/what-are-foundation-models

Atle Winther

Til dagligt er jeg programmør i Espergærde, men de seneste tre år har jeg også undervist i folkeskole- og privatskoleregi samt været frivillig i Coding Pirates. Herudover afholder jeg workshops i programmering i Gifted Children samt FOF. Bloggen henvender sig til undervisere på alle trin, som søger inspiration inden for teknologiens felter. Mit fokus vil være på de kreative aspekter, som programmering og kodning, software, robotter, 3D print og lignende. Jeg har en kritisk tilgang til it i folkeskolen og i samfundet og vil forsøge at skabe debat omkring de teknologibegejstrede strømninger, som, jeg synes, kendetegner dele af folkeskolens undervisning.

Og så kan jeg anbefale "The Hundred-Page Machine Learning Book" af Andriy Burkov. Selvom bogen er skrevet før den generative AI, som vi kender i dag, giver den enkel indføring i kunstig intelligens.