Gatemagasinet MOT

Det er som med atom­vå­pe­net; det begyn­ner som et gøy pro­sjekt for fysi­ke­re. Og når man har laget det, blir det et far­lig våpen, sier Hans Her­lof Grelland, pro­fes­sor i kvante­kje­mi og filo­sof.

Motstemmen

– Kunstig intelligens er ikke et fremskritt i samfunnet

Tekst og foto: Maja Hagen Tor­jus­sen

Hvem: Hans Her­lof Grelland 
Hvor: Uni­ver­si­te­tet i Agder 
Yrke: Filo­sof og pro­fes­sor i kvante­fy­sikk

– Du skrev din førs­te artik­kel om KIs mulig­he­ter alle­re­de i 1986, da du job­bet for et fir­ma som utvik­let nye robo­ter. Hvor­dan så spå­dom­me­ne og mulig­he­te­ne for KI ut da?   

– Da var KI (kuns­tig intel­li­gens red.anm) kun tek­nis­ke hjelpe­mid­ler. Foku­set var indu­stri og pro­duk­sjon, det hand­let om sty­rings­sys­te­mer og dia­gnose­sys­te­mer. Pro­blem­stil­lin­gen var mer begren­set, og vi opp­lev­de ikke utvik­lin­gen som skum­mel eller tru­en­de. Det er som med atom­vå­pe­net; det begyn­ner som et gøy pro­sjekt for fysi­ke­re. Og når man har laget det, blir det et far­lig våpen. I dag hand­ler KI, så vel som atom­vå­pe­net, om poli­tikk og liv og død. 

– Du skri­ver i et inn­legg på Face­bo­ok i febru­ar at vi har mis­tet doku­men­ta­sjons­ver­di­en i bil­der, og at kuns­tig intel­li­gen­te maski­ner ikke er intel­li­gen­te – de kan ingen­ting. Hva leg­ger du i det? 

– Å kun­ne noe er en bevisst opp­le­vel­se; man for­hol­der seg til det man kan. Å kun­ne og å for­stå, da snak­ker vi om å mest­re og mest­rings­fø­lel­ser. Det­te er noe bare en bevisst­het kan ha. En intel­li­gens har med vur­de­rings­evne og en bevisst hand­ling å gjø­re, og en data har ingen bevisst­het. Det er et bedra­ge­ri, etter min mening. Det skum­le er at bedra­ge­ri­et her lig­ger tett på en mulig­het og en snar­vei til å få til ting, pro­du­se­re ting. Det er lett å bite på.   

– Du skri­ver også at KI nå skrem­mer deg? 

– Jeg er tek-posi­tiv, men det­te er jeg ikke posi­tiv til. Jeg må også påpe­ke at jeg ikke har gene­rell tek­no­lo­gi­angst eller ten­ker at alt var bed­re før, for det synes jeg ikke. Men det­te hand­ler om kon­se­kven­ser jeg ikke liker. 

– Hva er kon­se­kven­se­ne du ikke liker? 

– Idet man kan kon­stru­ere fine og rea­lis­tis­ke bil­der og fil­mer, mis­ter bil­det og fil­men sin doku­men­ta­sjons­ver­di. Før KI kun­ne man si at det­te vet vi er sant, for vi har bil­de eller film av det. En over­våk­nings­vi­deo kan for eksem­pel være for­fals­ket. 

Det skum­le er at bedra­ge­ri­et her lig­ger tett på en mulig­het og en snar­vei til å pro­du­se­re ting.

– Det snak­kes om for eksem­pel vann­mer­king av bil­der i medie­ne, for å veri­fi­se­re om de er ekte, og vide­re kan ver­ne om bil­de­nes tro­ver­dig­het. 

– Men hva vil det si å gjø­re bil­de­ne tro­ver­di­ge? Så len­ge vi kan kon­stru­ere bil­det vel­dig likt et vir­ke­lig bil­de, fin­nes mulig­he­ten for at det ikke er bil­der av fak­tis­ke ting, sier Grelland og fort­set­ter: 

– KI er kon­stru­e­ren­de. Og der­som et bil­de er kon­stru­ert og feil, så beve­ges vi og enga­sje­res av noe som er et bedrag. Det­te gjø­res i skue­spill, men da vet vi og er eni­ge om at det­te ikke vir­ke­lig. Vi ser fil­mer og kan her enga­sje­res og føle så mye vi vil og går med på pre­mis­se­ne for bedra­get. Vi leser Donald og blir lei oss når Donald mis­lyk­kes. Det er en form for bedra­ge­ri vi har kon­troll på. KI gir bedra­ge­ri­et en form som er ukon­trol­lert. Med for eksem­pel Cha­t­G­PT frem­står infor­ma­sjo­nen som sann, men den har ikke all­tid rett. Det er et bedrag, men vi vet ikke nød­ven­dig­vis når vi blir bedratt.   

Grelland fort­set­ter: 

– I uni­ver­si­tets­sek­to­ren er skri­ving en krea­tiv pro­sess. Å lære å skri­ve er å lære å uttryk­ke seg, som er noe fun­da­men­talt med å være men­nes­ke. Der­som en data­ma­skin skri­ver for deg, er det ikke like lett å for­stå at det ikke er du som skri­ver. Skri­ver en venn for deg, så for­står man at man selv ikke skri­ver. Med data­ma­ski­nen eller for Cha­t­G­PT mis­ter man sin egen uttrykk­s­evne og tanke­pro­sess. En stu­dent for­tal­te meg for­le­den at han skul­le skri­ve en tekst, og bruk­te Cha­t­G­PT til å kon­stru­ere teks­ten på for­skjel­li­ge måter. Så valg­te han den teks­ten han synes var best, og så sier han at det er han som har laget teks­ten, for det var ham som valg­te den. Men det er like usant som å kjø­pe en stol og si at det er kjø­pe­ren som har laget sto­len, for­di sto­len bevisst er pluk­ket ut.  

– Iføl­ge et kjapt Goog­le-søk ble det førs­te fals­ke foto­gra­fi­et frem­stilt så tid­lig som 1840. I dag er det stor bevisst­het rundt avslø­ring av fals­ke bil­der. Feno­me­net har fan­tes len­ge og det vir­ker nes­ten naivt å tro at vi ikke har blitt lurt av fals­ke bil­der i for eksem­pel krig­fø­ring før KI ble et tri­vi­elt begrep? 

– Det er ikke noe tvil om at vi har hatt fals­ke bil­der som bedra­ge­ri tid­li­ge­re, men det kan ikke sam­men­lig­nes med omfan­get og mulig­he­te­ne som er mange­dob­let med KI i dag. Det­te er dimen­sjo­ner som er skrem­men­de. Så er det posi­tivt at vi blir bevisst på utford­rin­ge­ne KI-gene­rert tekst, film og bil­der med­fø­rer, og kan lage reg­ler og pro­gram­va­rer som kan mot­vir­ke bedra­ge­ri­et. Men det betyr også mer tek­no­lo­gi, mer pro­gram­vare, som også hand­ler om kost­ba­re løs­nin­ger. Noen har tek­no­lo­gi­en lett til­gjen­ge­lig, and­re ikke. 

Mons­te­ret er ute av buret og vi må leve med det.

– Folk på tek-fag­fel­tet har kan­skje let­te­re for å gjen­nom­skue poten­si­ell løgn eller usann­het i KI-uttrykk, mens men­nes­ker som job­ber innen and­re fag­felt kan­skje er mer utsatt for å bli for­ført. Poli­tikk? 

– Folk som hol­der på med and­re fag­felt kan let­te­re bli utsatt for bedra­ge­ri­et. Spe­si­elt hos oss, hvor sam­fun­net i stor grad er pre­get av en ærlig­hets­kul­tur. Sam­ti­dig er det mer auto­ri­tæ­re sam­funn som er uhem­met auto­ri­tæ­re og mani­pu­le­ren­de, som vil få verk­tøy­et i hen­de­ne. 

Skul­le etik­ken hatt en ster­ke­re posi­sjon i frem­veks­ten av KI?  

– Ja. Men frem­veks­ten av KI rei­ser nå nye og and­re pro­blem­stil­lin­ger enn hva etik­ken per i dag er rus­tet for. Vi tren­ger en egen etikk for KI. 

– Du påpe­ker at vi har tapt bil­der og fil­mers doku­men­ta­sjons­ver­di. KI-for­kjem­pe­re vil kan­skje si ja takk beg­ge deler – vir­ke­li­ge bil­der og mulig­he­ten for kon­stru­er­te bil­der?  

– KI er ikke et frem­skritt i sam­fun­net. Jeg ser bruks­om­rå­de­ne, men ikke for­de­le­ne totalt sett. Jeg tror ikke det har gått opp for oss hva vi har tapt ved å mis­te bil­der som doku­men­ta­sjons­ver­di på grunn av KI. Bruks­om­rå­de­ne vi så fra 1986 ser jeg, men jeg ser ikke for­de­le­ne med KI i den betyd­ning at det gjør sam­fun­net vårt bed­re. 

– Og men­nes­ke­ne? 

– KI gir men­nes­ke­ne stør­re mulig­he­ter for bedra­ge­ri, hvil­ket vil sti­mu­le­re folk til å bli bedra­ge­re. Jeg vil gjer­ne at men­nes­ker i sam­fun­net vårt skal kun­ne være tryg­ge på at vi kan fer­des med en viss nai­vi­tet; at vi kan tro på at and­re men­nes­ker har gode hen­sik­ter og at det man ser er det som det utgir seg for å være. Nå risi­ke­rer man i stør­re grad å bli lurt. Mons­te­ret er ute av buret og vi må leve med det. 

Artik­ke­len er fra utga­ve nr. 3 av Gate­ma­ga­si­net MOT 2024