Det er selvsagt bra at norske medier er nysgjerrig på kunstig intelligens og hvordan man kan mobilisere disse fremvoksende teknologiene som journalistisk verktøy. Samtidig skulle vi ønske at norske journalister også fattet mer interesse for KI som et kritisk journalistisk dekningsområde, ettersom ulike KI-teknologier allerede har stor innvirkning på styringen og innretningen av samfunnet. Det journalistiske potensialet er med andre ord stort, men det krever at man har god kunnskap om forskjellen på ulike KI-teknologier, KI-forskning og, ikke minst, innsikt i hvordan teknologi og samfunn er gjensidig konstituerende (se Johnson & Verdicchio, 2024; Johnson & Wetmore, 2021).
SUJO mener at norske journalister trenger mer kunnskap om KI-teknologier og KI-forskning. Behovet for dette mener vi reflekteres særlig i den løpende dekningen av kunstig intelligens i riksmediene. Nesten daglig får norske mediebrukere servert saker i nyhetsfeeden om KI. Mange av sakene handler om ChatGPT og hvordan man kan bruke generative språkmodeller i hverdagen og arbeidslivet. Men vi får også stadig høre om KI-fremskritt innenfor ulike deler av offentlig sektor og om hvordan KI kan øke produktiviteten i både næringslivet og i forskning. Felles for majoriteten av disse kjappe og enkle nyhetssakene, er at de er teknologioptimistiske og at menneskene som intervjues gjerne ikke stilles kritiske spørsmål.
Det blir for eksempel sjelden spurt om hvordan KI-modeller som brukes til analyser og predikering har blitt trent og vurdert. Saker som handler om effektivisering og sparing ved bruk av KI er ofte vage og beskriver gjerne ikke nøyaktig hva som forenkles og forbedres. På et mer generelt nivå blir det heller ikke reflektert særlig kritisk over implikasjonene av å stadig automatisere nye områder av arbeidslivet og samfunnet. Tvert imot, tendensen er at automatisering og effektivisering fremstilles som noe udelt positivt og verdinøytralt, uten at de mer langsiktige og potensielt mer problematiske konsekvensene av en slik optimalisering- og automatiseringslogikk blir vurdert.
Ifølge de amerikanske KI-forskerne Arvind Narayanan og Sayash Kapoor (2024) er journalister generelt alt for lite kritiske til KI: «Hver dag bombarderes vi med saker om angivelige KI-gjennombrudd. Men mange av disse artiklene er bare omskrevne pressemeldinger fra teknologiselskapene » (s. 25). Første steg mot en mer kritisk dekning av KI innebærer ifølge forfatterne at journalister setter seg bedre inn hvordan enkelte deler av KI-forskningen faktisk fungerer.
Narayanan og Kapoor hevder at mye KI-forskning er dårlig, industridrevet og påvirket av sterke kommersielle interesser (se også Crockett, 2025). De er spesielt kritiske til såkalt prediktivt KI som de nærmest fremstiller som svindel: «Mange KI-studier overdriver hvor godt en modell kan predikere et fenomen i fremtiden fordi forskerne som har utviklet modellen også har evaluert den» (Narayanan & Kapoor, 2024, s. 72). Ved å trene og evaluere KI-modeller på det samme datasettet, kan uetiske KI-utviklere fremstille modellene sine som bedre og mer treffsikre enn det de faktisk er. De «gode» resultatene blir så gitt til godtroende journalister som entusiastisk hyper opp et KI-produkt som egentlig ikke fungerer:
Vi har sett denne historien utspille seg utallige ganger: Et selskap lanserer en ny KI-modell med mye hype, men de sier ingenting om hvordan modellen er trent eller hvilke data den bruker. Journalister gjentar ukritisk selskapets påstander og bygger oppunder hypen. Selv om det ikke finnes noen tilgjengelig bevis for at modellen faktisk fungerer, blir den raskt tatt i bruk på viktige samfunnsområder. Hvis KI-bruken i det hele tatt blir problematisert, så møter forskere og journalister som engasjerer seg mye motstand (Narayanan & Kapoor, 2024, s. 229-230).
Ifølge Narayanan and Kapoor (2024) er det tre elementære spørsmål man bør stille som journalist, hvis man står ovenfor et angivelig «KI-gjennombrudd»:
Innfor KI-forskning evalueres modeller som regel på såkalte benchmark-datasett. Disse datasettene er kvalitetssikret av forskere, åpent tilgjengelig for alle og nøye tilpasset viktige måleparametere. Men som Narayanan og Kapoor skriver; selv om en KI-modell scorer høyt på en godkjent benchmark test, så betyr ikke det nødvendigvis at modellen vil fungere optimalt i virkeligheten. Dette viktige poenget kan forklares med et banalt eksempel: En KI-modell kan få toppkarakter på jus-eksamen, men det er ikke ensbetydende med at modellen kan jobbe som advokat.
Å reflektere mer kritisk over forholdet mellom oppgavene en KI-modell kan løse i testsituasjoner, og hvordan disse oppgavene faktisk ser ut i virkeligheten, er derfor svært viktig for å opprettholde en kritisk journalistisk distanse til KI-industrien. Denne kritiske distansen kan formuleres i et enkelt kontrollspørsmål som bør stilles til alle som prøver å «selge» en KI-modell: Hvordan vil modellen fungere i skiftende omgivelser preget av uforutsette hendelser og menneskelig handling? Ifølge Narayanan og Kapoor er virkeligheten alltid mer uforutsigbar og kompleks enn det en KI-modell som regel klarer å ta høyde for, selv om den er trent på enorme datamengder. Slik kunnskap mener forskerne er helt nødvendig for å dekke KI selvstendig og kritisk.
Andre steg mot en mer kritisk KI-dekning innebærer at journalister også setter seg mer inn i hvordan ulike KI-teknologier anvendes i forskjellige deler av samfunnet. For å få en bedre oversikt over dette, anbefaler vi å oppsøke faglitteratur fra det tverrfaglige forskningsfeltet som går under navnet kritiske KI-studier (Critical AI Studies). Som navnet indikerer er mye av forskningen som blir produsert her meget kritisk og skeptisk til KI, både som teknologi og samfunnsfenomen. Vi vil her gjengi noen sentrale perspektiver og påstander som preger forskningsfeltet, med håp om at det kan stimulere norske journalister til å gjøre flere egne undersøkende prosjekter på KI.
I utgreiingen som følger vil vi av og til bryte med vårt prinsipp fra tidligere om å ikke bruke kunstig intelligens som et sekkebegrep. Vi vil også utfordre en oppfatning som vi ser at tidvis gjennomsyrer vår egen fremstilling av KI så langt, nemlig tanken om at KI er et teknologisk objekt med en form for agens og deterministisk kraft i seg selv. Forfekter man at KI styrer og utvikler seg selv, uten menneskelig interesse og innblanding, blir det vanskelig å lage maktkritisk og avslørende journalistikk. Vi begynner derfor med å redefinere KI på en sosioteknisk måte før vi forsøker å nøste litt mer overordnet i hvordan KI kan brukes både av statlige og ikke-statlige aktører til å begå maktmisbruk, overgrep og kritikkverdig handlinger i samfunnet.
En utbredt myte om kunstig intelligens er at teknologien er bygget på en altruistisk tanke om at man ved å emulere biologisk intelligens på maskinell måte kan løse menneskehetens mange gåter, inkludert hva menneskelig intelligens egentlig er. Ifølge den italienske vitenskapsfilosofen Matteo Passquinelli (2023), så fordrer imidlertid en slik intern objektsforståelse av KI at man ser helt vekk fra hvordan teknologiene faktisk brukes av mennesker i samfunnet i dag: «I dag bør det være åpenbart at KI er et prosjekt som søker å fange opp kunnskapen som kommer til uttrykk gjennom individuell og kollektiv atferd, og kode den inn i algoritmiske modeller for å automatisere ulike oppgaver (…)» (s. 2). I følge Passquinelli må altså KI forstås som en samling teknologier som har det til felles at de alle forsøker å emulere (etterligne) intelligent kollektivt arbeid, ikke løse gåten med menneskelig intelligens. Med denne forståelsen kritiserer Passquinelli teknologiske determinister som hevder at det er maskiner og oppfinnelser som skaper samfunnsendringer. Tvert imot, så mener Passquinelli at det omvendte er tilfellet. I hans fremstilling er det eksisterende sosiale relasjoner (forholdet mellom kapital og arbeid) og menneskelig interessekonflikter (klassekamp) som igangsetter og skaper nødvendigheten av nye maskiner (samlebåndet, regnemaskiner og maskinlæring). Som Aradau and Bunz (2022) skriver i sin venstreorienterte kritikk av KI: «Dagens KI er kanskje en ny teknologi, men den springer ut av og operere i allerede eksisterende maktstrukturer» (s. 11).
Kunstig intelligens blir dermed en foreløpig kulminasjon i en kapitalistisk logikk som har dominert den vestlig verden siden den industrielle revolusjonen, der ønsket om å automatisere, optimalisere og overvåke menneskelig atferd og arbeid står helt sentralt. I sin marxistiske analyse av KIs sosiale historie viser Passquinelli (2023) dermed på en ganske overbevisende måte at KI-teknologier på ingen måte er verdinøytrale. De er alle innvevde i ulike maktstrukturer og «besudlet» av menneskelig tankemåter og interesser.
Hvilken relevans har en slik sosioteknisk forståelse av kunstig intelligens for norske journalister? Ved å se teknologi og samfunn som gjensidig konstituerende blir det tydelig at kunstig intelligens ikke er noe abstrakt og eget som befinner seg utenfor menneskelig påvirkning og kontroll. Fremstiller man KI-systemer som autonome, tenkende og handlende tekniske objekter, står man med andre ord i fare for å overse og tilsløre hvilke mennesker og sosiale interesser som står bak (Suchman, 2021).
Vi minner om at undersøkende journalistikk skal forsøke å avdekke og avsløre kritikkverdige forhold, overtramp og/eller overskridelser i samfunnet. Ofte gjøres dette gjennom å påvise såkalt «systemsvikt». I utgangspunktet tenker man da på systemer som noe som er sosialt produsert. Men som tidligere forsknings- og vitenskapstudier har vist (se Callon, 1984; Latour, 1987), så er selv tilsynelatende «rene» sosiale og naturlige systemer, aldri bare det. Det er som regel også materielle betingelser og teknologiske krefter til stede. På samme måte kan man innvende at såkalte «rene» teknologiske systemer ikke bare kan være tekniske (Latour, 1993). Om det er en språkmodell eller et selvforbedrende missilsystem spiller for så vidt ingen rolle, det er alltid mennesker, grupper og sosiale institusjoner involvert i nettverkene rundt teknologiene. Disse aktørene må spores, vises frem og ansvarliggjøres i undersøkende journalistikk.
Et eksempel på en aktør som aktivt bruker sosiotekniske systemer, slik som KI, til å forstå, forme og agere i virkeligheten, er staten. Ifølge Shirley Kempeneer (2024) må statens voksende KI-bruk forstås innenfor en større historisk ramme der stordata, statistiske analyser og predikeringsmodeller utgjør en helt sentral del av statens maktapparat. Kvantifisering, klassifisering og kalkulering som ulike former for maktutøvelse er selvsagt ikke noe nytt. Dette er historiske praksiser som kan spores tilbake til eldgamle sivilisasjoner på ulike sider av kloden (Pasquinelli, 2023). Men tanken om at samfunnet kan forstås og forbedres ved å dele det opp i målbare enheter som skal reflektere «objektive fakta» hører først og fremst moderniteten til (Foucault, 1977; Giddens, 1990). De historiske konsekvensene av en slik statsstyrt rasjonalitet tuftet på et kvantifiserende vitensyn har dog ikke vært uproblematiske. Ifølge Kempeneer (2024), så er både kolonialisering og overvåkningssamfunnet ikke hendige uhell, men snarere logiske endestasjoner når staten velger stordata og kvantifisering som foretrukne styringsmekanismer.
Det er selvsagt mulig å være uenig i både påstandene og årsaksforklaringene i denne svært skjematiske fremstillingen, men poenget med å gjengi denne her, er for å tydeliggjøre at data som statlig ressurs og maktutøvelse ikke er noe nytt som plutselig «har falt ned fra himmelen med KI» (Kempeneer, 2024, s. 2). (Stor)data har derimot en årelang og sosial historie. Forstår man rekkevidden og konsekvensene av denne historien, er det kanskje også lettere å forstå hvordan kunstig intelligens og dataproduksjon kan mobiliseres som statlig styringsmekanisme og maktmiddel i dagens samfunn.
Den norske stat bruker allerede kunstig intelligens til utføre en rekke oppgaver i offentlig sektor. En oversikt over KI-prosjekter i staten frem til 17. september 2024 finnes hos Felles datakatalog. Blar man gjennom oversikten ser man at ulike former for KI brukes innenfor blant annet helse og omsorg, transport og samferdsel, energi og miljø og ikke minst innenfor skatt (Skatteetaten) og velferd (NAV). Det som imidlertid ikke står oppført i oversikten er hvordan KI brukes til kriminalitetsbekjempelse, overvåkning og forsvar. At denne informasjonen mangler i statens eget KI-register, er selvfølgelig svært interessant fra et journalistisk perspektiv.
Med fare for å gjenta oss selv; skal man gjøre journalistiske undersøkelser på statens KI-bruk, er det en forutsetning at man fra før har en viss oversikt over hva som kjennetegner oppgavene og ansvarsområdene til de ulike delene av offentlig sektor. En journalist med inngående kjennskap til for eksempel helsesektoren vil mye lettere kunne identifisere problematisk KI-bruk, enn en allroundjournalist som ikke har denne tematiske dybdekunnskapen. Samtidig er ikke tematisk dybdekunnskap nok i seg selv. Det er også avgjørende å kjenne til hvordan ulike KI-teknologier fungerer. Man må altså både forstå teknologiene og kjenne fagområdet der teknologiene brukes, for å komme i posisjon til å avdekke kritikkverdig forhold.
Fra et gravelederperspektiv betyr det at man som leder bør sette sammen team bestående av journalister som har ulik spisskompetanse innen både teknologi og samfunn. I mindre mediebedrifter er dette selvsagt vanskelig, ettersom graving i større grad gjøres av enkeltjournalister. Spørsmålet er om man kan forvente at enkeltjournalister i norske lokalaviser skal ha spesialkompetanse på både offentlig forvaltning og maskinlæring, to helt forskjellig og på hver sin måte kompliserte fagområder.
Faktum er likevel at slik dobbeltkompetanse kan bli nødvendig i tiden vi beveger oss inn i. Bruken av kunstig intelligens i staten vil trolig øke i årene som kommer. Ifølge myndighetene er hensikten å effektivisere og forbedre forvaltningen og de offentlige tjenestene. Men det er grunn til å frykte at denne effektiviseringspolitikken også kommer med en pris. Når offentlig sektor blir underlagt en KI-logikk, som i praksis vil innebære økt fragmentering av tenkning, problemløsning og beslutningsprosesser og økt atomisering av data og dataenheter (Cantens, 2024; Wirtz et al., 2019), risikerer man at statens informasjonsflyt og dataproduksjon blir så komplekst og uoversiktlig at mediene hverken kan forstå eller holde den under oppsyn.
Det hevdes regelmessig at kunstig intelligens forandrer samfunnet og at teknologien i fremtiden kan overta jobbene til oss mennesker. Men legger vi som sagt en sosioteknisk forståelse av teknologi til grunn (Collins, 2024; Johnson & Verdicchio, 2024), så er det en feilslutning å tenke at KI er en autonom samfunnsdriver. En mer produktiv og kritisk måte å se den pågående samfunnsutviklingen på, som også vil være mye mer i tråd med profesjonsidealene i undersøkende journalistikk, innebærer å se bak teknologiene og forsøke å utlede hvilke krefter som opererer der. Det blir med andre ord defensivt og diffust å spørre: Hvordan forandrer KI samfunnet? Undersøkende journalister bør heller spørre på en ansvarliggjørende og årsaksforklarende måte, som f. eks: Hvilke aktører bruker KI-teknologier til å forandre samfunnet? Hvilke motiver og krefter driver dem?
Anvender man en slik undersøkende og kritisk innfallsvinkel, ser man at fort at den økende KI-bruken både innenfor statlig og privat sektor som regel er motivert av penger og makt. Når offentlige etater automatiser saksbehandling (Muhaisen, 2024), dagligvarebransjen optimaliserer verdikjeden (Larsgård, 2025), bokbransjen automatiserer språkvask og oversettelser (Steenberg, 2024), kundeservice settes bort til chatboter (Vangsnes, 2024), eller når restaurant- og servicebransjen benytter bilde-og objektsgjenkjenningsteknologier for å spore og overvåke ansatte (Cater & Heikkilä, 2021), så fremstilles det gjerne av aktørene selv som forbedringer og fremskritt som til syvende og sist kommer samfunnsborgeren eller forbrukeren til gode. At de samme automatiseringstiltakende også har en åpenbar kostnadsbesparende og til og med konstandsøkende effekt, snakkes det atskillig mindre om. Som allerede nevnt, må kunstig intelligens ifølge Pasquinelli (2023) forstås som noe mer enn bare nøytral og rasjonell automatisering av arbeid. Han skriver: «Rasjonale bak kunstig intelligens er ikke bare automatisering av arbeid, men også en indirekte forsterkning av sosiale hierarkier. Ved å implisitt erklære hva som kan automatiseres og hva som ikke kan det, har KI innført en ny intelligensmåling på hvert trinn i sin utviklingen (s. 245-246). I tillegg til å automatisere arbeid, sier KI også noe indirekte om hva som teller som meningsfylt og viktig arbeid. KI erstatter dermed ikke bare det som tidligere var manuelt arbeid, teknologien fortrenger, utnytter og restrukturerer også arbeidere i ny form for sosial orden (s. 246).
Debatten om hvilke konkrete jobber som KI vil overta i fremtiden er derfor i ytterste konsekvens en distraksjon som risikerer å ta oppmerksomheten vekk fra en mye større strukturell dynamikk som er i gjerde. Som flere forskere har påpekt: KI vil trolig både avskaffe og skape nye jobber i årene som kommer, slik andre automatiseringsteknologier også har gjort tidligere. Enda viktigere er det at teknologien også vil konsolidere og sentralisere mer makt hos et fåtall allerede ekstremt mektige personer og selskaper (Narayanan & Kapoor, 2024, s. 254). Hovedproblemet med kunstig intelligens er altså ikke at teknologien overtar jobber, men heller at teknologien brukes til å tilsløre, reprodusere og forsterke sosiale forskjeller og eksisterende makthierarkier (Crawford, 2021; McQuillan, 2022; O’Neil, 2016).
I undersøkende journalistikk er det som kjent et prinsipp at man skal følge pengene og makten for å finne skurkene og de ansvarlige. Gjør man det innenfor den globale tech-industrien, blir det fort tydelig at KI hverken er en skurk eller en selvstendig og ansvarlig kraft i seg selv. KI er snarere et verktøy som de mektigste kapitalkreftene i verden forsøker å mobilisere i sin higen etter å kontrollere politikk og samfunn for å forme virkeligheten i et bestemt bilde (Tacheva & Ramasubramanian, 2023). Det er denne teknologidrevne maktutøvelsen og dens politiske og samfunnsmessige konsekvenser, og ikke KI-teknologier som vitenskapelig fremskritt, problemløsere og facinasjonsobjekter (Winkel, 2024), som gjør kunstig intelligens til et av de viktigste journalistiske dekningsområdene i vår tid.