Det er som med atomvåpenet; det begynner som et gøy prosjekt for fysikere. Og når man har laget det, blir det et farlig våpen, sier Hans Herlof Grelland, professor i kvantekjemi og filosof.
Tekst og foto: Maja Hagen Torjussen
Hvem: Hans Herlof Grelland
Hvor: Universitetet i Agder
Yrke: Filosof og professor i kvantefysikk
– Du skrev din første artikkel om KIs muligheter allerede i 1986, da du jobbet for et firma som utviklet nye roboter. Hvordan så spådommene og mulighetene for KI ut da?
– Da var KI (kunstig intelligens red.anm) kun tekniske hjelpemidler. Fokuset var industri og produksjon, det handlet om styringssystemer og diagnosesystemer. Problemstillingen var mer begrenset, og vi opplevde ikke utviklingen som skummel eller truende. Det er som med atomvåpenet; det begynner som et gøy prosjekt for fysikere. Og når man har laget det, blir det et farlig våpen. I dag handler KI, så vel som atomvåpenet, om politikk og liv og død.
– Du skriver i et innlegg på Facebook i februar at vi har mistet dokumentasjonsverdien i bilder, og at kunstig intelligente maskiner ikke er intelligente – de kan ingenting. Hva legger du i det?
– Å kunne noe er en bevisst opplevelse; man forholder seg til det man kan. Å kunne og å forstå, da snakker vi om å mestre og mestringsfølelser. Dette er noe bare en bevissthet kan ha. En intelligens har med vurderingsevne og en bevisst handling å gjøre, og en data har ingen bevissthet. Det er et bedrageri, etter min mening. Det skumle er at bedrageriet her ligger tett på en mulighet og en snarvei til å få til ting, produsere ting. Det er lett å bite på.
– Du skriver også at KI nå skremmer deg?
– Jeg er tek-positiv, men dette er jeg ikke positiv til. Jeg må også påpeke at jeg ikke har generell teknologiangst eller tenker at alt var bedre før, for det synes jeg ikke. Men dette handler om konsekvenser jeg ikke liker.
– Hva er konsekvensene du ikke liker?
– Idet man kan konstruere fine og realistiske bilder og filmer, mister bildet og filmen sin dokumentasjonsverdi. Før KI kunne man si at dette vet vi er sant, for vi har bilde eller film av det. En overvåkningsvideo kan for eksempel være forfalsket.
Det skumle er at bedrageriet her ligger tett på en mulighet og en snarvei til å produsere ting.
– Det snakkes om for eksempel vannmerking av bilder i mediene, for å verifisere om de er ekte, og videre kan verne om bildenes troverdighet.
– Men hva vil det si å gjøre bildene troverdige? Så lenge vi kan konstruere bildet veldig likt et virkelig bilde, finnes muligheten for at det ikke er bilder av faktiske ting, sier Grelland og fortsetter:
– KI er konstruerende. Og dersom et bilde er konstruert og feil, så beveges vi og engasjeres av noe som er et bedrag. Dette gjøres i skuespill, men da vet vi og er enige om at dette ikke virkelig. Vi ser filmer og kan her engasjeres og føle så mye vi vil og går med på premissene for bedraget. Vi leser Donald og blir lei oss når Donald mislykkes. Det er en form for bedrageri vi har kontroll på. KI gir bedrageriet en form som er ukontrollert. Med for eksempel ChatGPT fremstår informasjonen som sann, men den har ikke alltid rett. Det er et bedrag, men vi vet ikke nødvendigvis når vi blir bedratt.
Grelland fortsetter:
– I universitetssektoren er skriving en kreativ prosess. Å lære å skrive er å lære å uttrykke seg, som er noe fundamentalt med å være menneske. Dersom en datamaskin skriver for deg, er det ikke like lett å forstå at det ikke er du som skriver. Skriver en venn for deg, så forstår man at man selv ikke skriver. Med datamaskinen eller for ChatGPT mister man sin egen uttrykksevne og tankeprosess. En student fortalte meg forleden at han skulle skrive en tekst, og brukte ChatGPT til å konstruere teksten på forskjellige måter. Så valgte han den teksten han synes var best, og så sier han at det er han som har laget teksten, for det var ham som valgte den. Men det er like usant som å kjøpe en stol og si at det er kjøperen som har laget stolen, fordi stolen bevisst er plukket ut.
– Ifølge et kjapt Google-søk ble det første falske fotografiet fremstilt så tidlig som 1840. I dag er det stor bevissthet rundt avsløring av falske bilder. Fenomenet har fantes lenge og det virker nesten naivt å tro at vi ikke har blitt lurt av falske bilder i for eksempel krigføring før KI ble et trivielt begrep?
– Det er ikke noe tvil om at vi har hatt falske bilder som bedrageri tidligere, men det kan ikke sammenlignes med omfanget og mulighetene som er mangedoblet med KI i dag. Dette er dimensjoner som er skremmende. Så er det positivt at vi blir bevisst på utfordringene KI-generert tekst, film og bilder medfører, og kan lage regler og programvarer som kan motvirke bedrageriet. Men det betyr også mer teknologi, mer programvare, som også handler om kostbare løsninger. Noen har teknologien lett tilgjengelig, andre ikke.
Monsteret er ute av buret og vi må leve med det.
– Folk på tek-fagfeltet har kanskje lettere for å gjennomskue potensiell løgn eller usannhet i KI-uttrykk, mens mennesker som jobber innen andre fagfelt kanskje er mer utsatt for å bli forført. Politikk?
– Folk som holder på med andre fagfelt kan lettere bli utsatt for bedrageriet. Spesielt hos oss, hvor samfunnet i stor grad er preget av en ærlighetskultur. Samtidig er det mer autoritære samfunn som er uhemmet autoritære og manipulerende, som vil få verktøyet i hendene.
– Skulle etikken hatt en sterkere posisjon i fremveksten av KI?
– Ja. Men fremveksten av KI reiser nå nye og andre problemstillinger enn hva etikken per i dag er rustet for. Vi trenger en egen etikk for KI.
– Du påpeker at vi har tapt bilder og filmers dokumentasjonsverdi. KI-forkjempere vil kanskje si ja takk begge deler – virkelige bilder og muligheten for konstruerte bilder?
– KI er ikke et fremskritt i samfunnet. Jeg ser bruksområdene, men ikke fordelene totalt sett. Jeg tror ikke det har gått opp for oss hva vi har tapt ved å miste bilder som dokumentasjonsverdi på grunn av KI. Bruksområdene vi så fra 1986 ser jeg, men jeg ser ikke fordelene med KI i den betydning at det gjør samfunnet vårt bedre.
– Og menneskene?
– KI gir menneskene større muligheter for bedrageri, hvilket vil stimulere folk til å bli bedragere. Jeg vil gjerne at mennesker i samfunnet vårt skal kunne være trygge på at vi kan ferdes med en viss naivitet; at vi kan tro på at andre mennesker har gode hensikter og at det man ser er det som det utgir seg for å være. Nå risikerer man i større grad å bli lurt. Monsteret er ute av buret og vi må leve med det.
Artikkelen er fra utgave nr. 3 av Gatemagasinet MOT 2024