Vi må væk fra instrumentelle videnssyn og teknologiforståelser
Når instrumentelle videnssyn og teknologiforståelser finder vej i vores uddannelser, så er det med demokratiet som indsats.
Af Mikala Hansbøl
Jeg har fulgt ChatGPT (baseret på GPT3) siden starten af december 2022, og har skrevet en hel del kritiske og velbegrundede indlæg og oplæg til diskussioner, som er publiceret både på LinkedIn og Facebook. I denne artikel, som jeg er inviteret til at skrive til IT-torvet, vil jeg forsøge at formidle lidt af det, som er så dybt problematisk ved vores uddannelsers måder at adressere ChatGPT på.
Jeg har formuleret ni opmærksomhedspunkter for, hvorfor vi bør tænke os godt om, INDEN vi kaster os over et produkt som ChatGPT:
- For det første: ChatGPT er faktisk et kommercielt produkt, så vi hjælper (gratis) kommercielle virksomheder med at komme videre med deres udvikling.
- For det andet: Privatlivspolitik (privacy policy) viser, hvad du accepterer at slippe, når du tilføjer data til ChatGPT. Det er jo nemlig ikke gratis, at bruge ChatGPT, selvom du ikke betaler med penge. Du betaler med data.
- For det tredje: Shoshana Zuboff har formuleret begrebet ”overvågningskapitalisme”, som handler om, hvad det gør ved vores verden, at vi betaler med data. Helt kort er hendes pointe i hendes seneste artikel, at vi kan have overvågningskapitalisme, og vi kan have demokrati. Men ikke begge dele!
- For det fjerde: Demokratiet er i problemer – blandt andet på grund af digitalisering. Forskere har undersøgt effekterne af digitalisering på demokratiet, og fundet ud af, at i demokratiske lande har digitalisering i høj nedbrydende effekter på demokratiet (fx misinformation og fake news).
- For det femte: Sprog og kultur har betydning. Det påvirker os, når vi kalder noget for ”kunstig intelligens” og ”maskinlæring” eller ”chatbots”. Det virker overbevisende på os. Faktisk er AI slet ikke som menneskelig intelligens, så vi bør stoppe med at skulle være med på forandringen ved at ‘hoppe på toget’ med “maskinlæring” og “kunstig intelligens” som togførere.
- For det sjette: Emily M. Bender m.fl. har skrevet en tankevækkende artikel, hvor de kalder ChatGPT en stokastisk papegøje. Det er meget, meget væsentligt at forstå, at ChatGPT ikke forstår, hvad den svarer. Den er amoralsk, har intet verdenssyn, intet menneskesyn, ingen sund fornuft, ingen empati…
- For det syvende: Vi skal være specifikke. Holde op med at tale i generelle vendinger om f.eks. ”AI” og ”it”. Med disse ord kan du gøre næsten hvad som helst, når som helst. I praksis kan du ikke gøre hvad som helst, når som helst med ChatGPT.
- For det ottende: En anden af vor tids største tænkere, Bruno Latour, har pointeret, at det sværeste er at beskrive noget. Og det er centralt for os mennesker. Vi skal lære det og blive ved med at lære det, for at blive bedre til det. Det kan vi ikke overlade til teknologi! Også fordi et produkt som ChatGPT for eksempel ikke kan bevæge sig rundt i verden, iblandt os mennesker, og i naturen og sanse og erkende på mangfoldige måder, hvad der er at beskrive.
- For det niende: ChatGPT understøtter ikke en bæredygtig verden (en verden med diversitet og lighed, og en verden vi kan overlevere levedygtigt til de videre generationer). For eksempel er arbejdsvilkårene involveret i udviklingen af ChatGPT ikke eksemplariske for fair trade, fx er teksten (som består af ’skrabet tekst fra internettet frem til 2021’) delvist er sorteret af Kenyanske medarbejdere på kummerlige vilkår (og hvad siger det i øvrigt om bias?).
Der kan snildt formuleres flere centrale pointer, og det uhyggelige er, at flere af ovennævnte punkter også gælder for mange af de sociale medier vi benytter. Men lige i denne artikel, vil jeg gerne holde os på sporet af ChatGPT, for det er netop ved at interessere sig for specificiteterne i den, at det bliver tydeligt, hvor vigtigt det er, at vi ikke bare er teknologioptimister.
Emily M. Bender og kollegaer har for eksempel advaret særligt om generativ AI som ChatGPT. Hun og kollegaer peger på, at vi skal stoppe med forestillingerne om at kunne udvikle alvidende teknologier! Det er mere realistisk med teknologier udviklet til særlige domæner.
I tråd med dette, skriver de danske forskere, Helene Ratner og Ida Schrøder, om deres kritiske og forskning i algoritmer i arbejdet med sagsbehandlingen af indsatser for udsatte børn. Her lidt tankevækkende citater fra deres artikel:
”Begge algoritmer blev lukket ned efter testperioden, fordi de ikke kunne hamle op med de erfarne, socialfaglige sagsbehandleres hurtighed og viden.”
”Udviklingen fra teknologioptimisme mod forsigtighed og ydmyghed er sund. Meget er på spil, herunder borgernes retssikkerhed og tillid til den offentlige forvaltning samt sagsbehandleres faglighed. Samtidigt viser udviklingen, at både medier og professionelle – det sociale arbejdes ledere, forskere og socialrådgivere – ikke er passive tilskuere til algoritmernes indtog, men aktivt bidrager til at forme algoritmernes rolle.”
Deres indlæg blev bragt i Ingeniøren 17. januar i år.
Det vigtige som Rather og Schrøder fremhæver er: MERE forsigtighed og ydmyghed, MERE opmærksomhed på vores egen rolle i at forme nye værktøjers indtog, og MERE fokus på hvordan værktøjerne kan BISTÅ administrative opgaver og MINDRE fokus på værktøjernes rolle i beslutningsprocesser.
En anden artikel fra Norge maner også til besindighed. Jeg tror nok det er meningsfuldt at oversætte til ”pissprædikegenerator”:
”Men «verdens beste pisspreikgenerator» bør brukes med varsomhet, påpeker KI-ekspert.”
”I «Computer Power and Human Reason» argumenterte Weizenbaum for at kunstig intelligens aldri måtte brukes som stedfortredere for mennesker eller til å ta viktige avgjørelser. ”
”Til tross for enorme fremskritt innen prosessorkraft og maskinlæring siden den gang, mener Irgens oppstyret rundt ChatGPT er en historie som gjentar seg”
”– Og det er fordi mennesker selv er pisspreikgeneratorer som fyller internett med synsing, forutinntatthet og tøv. Stapper du det inn i den ene enden av ChatGPT, kommer gjerne synsing, forutinntatthet og tøv ut i andre enden. ”
”– Vi lar oss forføre. Vi er jo mennesker. Vi er tilbøyelige til å tro på det som sies med språklig tyngde, eleganse, patos og pondus. Det er ikke hva folk sier som overbeviser oss, det er hvordan de sier det, sier han bestemt, før han legger til: – Så ChatGPT er ikke bare en pisspreikgenerator. Det er en overbevisende pisspreikgenerator. ”
ChatGPT er på forskellig vis biased, men fordi den hverken er open source eller open data, så kan vi ikke gennemskue præcist, hvordan den er biased. Det er dybt problematisk for vores demokratiske verden. Ikke mindst, hvis vi har udsigt til, som Europol har forudsagt, at op imod 90% af al indhold på internettet i 2026 vil være AI genereret!
Til slut vil jeg vende tilbage til overskriften om instrumentelle videnssyn og teknologiforståelser, og slå et slag for kritiske medie literacy (som én af flere væsentlige tilgange til arbejdet med læreres og elevers teknologiforståelser i dag).
En ny artikel, der ligger på Danmarks Læringsportal EMU’en (dateret 10. februar 2023), som bliver varetaget af Styrelsen for Kvalitet og Undervisning, handler om undersøgelse, nysgerrighed og AI chatbots i historie (STX). Den er desværre, med afsæt i ovennævnte overvejelser, både mangelfuld, og den rummer forkerte og misvisende informationer. Det har jeg også gjort EMU-redaktørerne opmærksom på. Til gengæld, så er den et godt billede på, hvor presserende det er, at vi – hele vejen rundt i Danmark – bliver bedre til at kunne identificere teknologiforståelser og vidensforståelser og menneske- og verdenssyn.
Artiklens forfatter skriver for eksempel: ”Det viste sig hurtigt, at ChatGPT er ret god til at svare på faktuelle spørgsmål”.
Det er simpelthen ikke korrekt. Der findes et hav af artikler og fagfolk, inkl. undertegnede der på forskellig vis har konstateret, at ChatGPT både misinformerer og opfinder referencer. ChatGPT er på INGEN måde en søgemaskine!
EMU-artiklen er romantiseret og repræsenterer en optimistisk og ukritisk tilgang til undervisning og fx samtaler. At arbejde nysgerrigt og undersøgende i Historie, kan muliggøres på mange forskellige måder, og det er ikke pædagogisk og didaktiske eller fagligt velbegrundet, hvordan det at arbejde med fx ChatGPT i historie repræsenterer et bedre alternativ til eksisterende undervisningsmuligheder.
På alle niveauer af uddannelsessystemerne, for øjeblikket, iagttager jeg dygtige medarbejdere, der forestiller sig, at hele uddannelsessystemet skal eller kan laves om på grund af ChatGPT. Det synes jeg er helt vildt!
EMU-artiklens forfatter skriver: ” Den indbyggede sprogmodel gør det nemt for brugerne at føre en samtale, der er både realistisk og hjælpsom.” ChatGPT kan ikke føre en samtale, artiklen personificerer et kommercielt produkt lanceret af Open.AI, der er i partnerskab med Microsoft; og fx er det første både undervisere og elever bør tage stilling til da privacy policy!
Desuden skriver forfatteren: ”For når man netop kan få alle svar serveret på et fad, giver det ikke meningen at arbejde med klassiske spørgsmål og svar i historie”. Her hopper kæden for mig helt af. Det er grundlæggende problematisk at forfatteren skriver, at ChatGPT giver mulighed for at få alle svar serveret på et fad – det vidner om meget lidt grundlæggende teknologiforståelse, men også om både en instrumentel teknologiforståelse (ChatGPT er bare et neutralt redskab) og vidensforståelse (viden kan bare lagres digitalt). Sidstnævnte ser jeg også, når forfatteren fortsætter: ” Det må forudses, at lærerens rolle i større grad end tidligere bliver relations- og konsulentarbejde.” Dette udsagn er dybt problematisk.
Vi får endnu mere grund til at være skarpe på vores faglighed NU. Og vi får endnu mere grund til at være alvorligt kritiske, når vi tilrettelægger undervisning med og uden det digitale som aktør i uddannelserne – men også livslangt og livsbredt!
Det er vores demokrati, der er på spil. Og det er vores menneskelige liv i en bæredygtig verden.
Derfor er det afgørende, at VI MENNESKER insisterer på hele tiden at kunne fordybe os i og diskutere, hvordan vi bedst håndterer vores verden i fællesskab.
Vi skal have aktiveret vores MENNESKESYN. Med udsigten til op imod 90 procent AI-genereret indhold på internettet, så bliver det altafgørende, at vi kan identificere det SÆRLIGT MENNESKELIGE. Og det hænger sammen med vores evner til at BESKRIVE verden og reflektere over OS SELV OG VERDEN, herunder at kunne identificere fakenews, misinformation og deepfakes.
Det handler også om ikke bare at have fokus på de nye handlinger vi kan gøre med de nye værktøjer, men også at have blik for, hvordan de samme værktøjer bidrager til at forandre vores verden, vores videnspraksisser og erkendemåder og -muligheder mm.
Dette leder mig, som det allersidste, til kritisk medie literacy. Torrey Trust med kollegaer har i 2022 skrevet artiklen: Critical media literacy in teacher education: Discerning truth amidst a crisis of misinformation and disinformation. Journal of Technology and Teacher Education, 30(2), 167-176.
I artiklen skriver forfatterne:
“At a time when information is easy to come by, but the truth is hard to find, teachers can play a crucial role in shaping the future of society. This is especially important given that students of all ages are ill-prepared to critically read, listen to, and view media.”
Forfatterne peger på at medie literacy ikke længere er tilstrækkeligt. Vi skal også arbejde med kritisk medie literacy – i skolen og læreruddannelserne. De forklarer forskellen sådan her:
“Media literacy is defined in a variety of ways; most commonly, as an umbrella term encompassing the analysis of mass-media, pop-culture, and digital platforms. Using the concepts of media literacy laid out by Buckingham (2003, 2007, 2019), a media literate individual is able to ask questions about the production, representation, language, and audience of any media text. Critical media literacy, more specifically, explores ownership, production, and the distribution of media, encourages inquiries about dominant ideology, and is rooted in social justice and making space for changemaking (Kellner & Share, 2005). Critical media literacy looks beyond the content of the media to better understand dynamics of power related to how and why that content came to be.”
Med dette i mente, vil jeg afslutte med en vigtig reminder: I en folkeskolesammenhæng er det allermest vigtige FØRST at være opmærksom på Privacy Policy. ChatGPT er ikke, så vidt jeg ved, GDPR sikker.
Ovennævnte overvejelser repræsenterer, som nævnt mit arbejde med at følge ChatGPT siden starten af december. Find de kritiske og velbegrundede artikler samlet på min Substack. Fx kan I finde en artikel om hvordan Kenyanske medarbejdere til 2 dollars i timen har siddet og set på børneporno mm., som led i arbejdet med at udvikle ChatGPT. Og der findes også reference til den ovennævnte artikel af Emily M. Bender og kollegaer, der grundlæggende advarer imod denne form for såkaldt generativ AI.
