English version of this page

– Vi blir alle partnere med KI enten vi vil det eller ikke

KIs overlegne evne til ? formulere tanker og p?stander for oss, svekker v?r d?mmekraft og evne til ? tenke kritisk, mener medieprofessor Petter Bae Brandtz?g.

En mann og en kvinne som ser p? henholdsvis en mobil og en laptop i et m?rkt kontorlokale

LYTTER TIL KI: 澳门葡京手机版app下载 viser at selv om vi liker ? si vi er kritiske, s? f?lger vi r?dene til KI. Foto: Kurt Ahmet/Unsplash.

Av Lisbet J?re (frilanser), Institutt for medier og kommunikasjon
Publisert 14. nov. 2025

Mens ingen visste om Chat GPT for bare tre ?r siden, bruker 800 millioner teknologien i dag. Hastigheten kunstig intelligens (KI) ruller ut i sl?r alle rekorder, og er blitt den nye normalen.

Mange KI-forskere, som Petter Bae Brandtz?g, er skeptiske. KI er en teknologi som griper inn i v?r evne til ? tenke, lese og skrive.

– Vi kan langt p? vei velge bort sosiale medier, men ikke KI. Det er integrert i sosiale medier, i Word, nettaviser, e-postprogrammer og lignende. Vi blir alle partnere med KI - enten vi vil eller ikke, sier Brandtz?g.

Professoren i medieinnovasjon ved Universitetet i Oslo, har sett p? hvordan KI p?virker oss i det nylig avsluttede prosjektet ?En AI-drevet offentlighet?.

Ytringsfrihetskommisjonen hoppet over KI

Prosjektet, i 澳门葡京手机版app下载 med SINTEF, er det f?rste av sitt slag i Norge som har forsket p? generativ KI, det vil si KI som lager innhold, og hvordan det p?virker b?de brukere og offentligheten.

Bakgrunnen var at Brandtz?g reagerte p? at rapporten til Ytringsfrihetskommisjonen, som ble lagt fram i 2022, ikke tok opp KIs innvirkning p? samfunnet i tilstrekkelig grad. I hvert fall ikke generativ KI.

– Det er studier som viser at KI kan svekke kritisk tenkning. Det p?virker spr?ket v?rt, hvordan vi tenker, forst?r verden, og v?r moralske d?mmekraft, sier Brandtz?g.

F? m?neder etter ytringsfrihetsrapporten ble ChatGPT lansert, noe som gjorde forskingsprosjektet hans enda mer aktuelt.

– Vi ?nsket derfor ? forst? hvordan slik generativ KI p?virker samfunnet, og s?rlig hvordan KI endrer sosiale strukturer og relasjoner.

KI-individualisme

Det er et relativt nytt felt som enda mangler teori, og forskerne har derfor lansert konseptet ?KI-individualisme?. Det springer ut fra begrepet ?nettverks individualisme? som ble lansert p? begynnelsen av 2000-tallet.

Da var behovet ? kunne ? si noe om hvordan smarttelefon, internett og sosiale media gjorde det mulig for folk ? lage nettverk utover familie, venner og naboer.

Nettverksindividualismen har sett p? hvordan teknologi visker ut tid og sted. Men med KI skjer det noe helt nytt: grensene mellom mennesker og systemer begynner ogs? ? utviskes, siden KI tar p? seg roller som tidligere tilh?rte mennesker.

– KI kan ogs? dekke personlige, sosiale og emosjonelle behov, sier Brandtz?g.

Han har bakgrunn fra psykologi, og har tidligere forsket p? hvilke personlige b?nd mennesker f?r til chatboten Replika. ChatGPT og lignende sosiale KI-modeller kan gi umiddelbar, personlig hjelp til alt mulig.

– Det forsterker individualismen i samfunnet, fordi vi i mindre grad trenger hjelp fra andre rundt oss. Det kan styrke menneskets autonomi, p? bekostning av felleskapet. Skiftet mot KI-individualisme kan gj?re at de sosiale strukturene i samfunnet endrer seg.

Han mener konseptet ?KI-individualisme? tilbyr et nytt perspektiv for ? forst? og forklare hvordan relasjoner i samfunnet endrer seg med KI.

– Vi bruker det som en relasjonell partner, som en 澳门葡京手机版app下载sparter i jobb, til ? ta beslutninger, sier Brandtz?g.

Mann uten h?r med gr?lig skjegg, cordfl?yeljakke og gr? ullgenser. Gr?nn uklar gressplen i bakgrunnen.
INNGRIPENDE TEKNOLOGI: – Vi m? ikke glemme at KI ikke er et offentlig, demokratisk prosjekt. Det er kommersielt, og bak st?r noen f? amerikanske selskaper og milliard?rer, sier Petter Bae Brandtz?g. Foto: Lisbet J?re.

Elever velger chatbot

Prosjektet bygger p? flere unders?kelser, blant dem en sp?rreunders?kelse til 166 elever i videreg?ende skole om hvordan de bruker KI.

?De g?r (ChatGPT og MyAI) rett p? sak ang?ende det vi sp?r om, og da slipper du ? lete deg i hjel i boken eller p? nettet?, sa en videreg?ende elev om fordelene med KI.

?ChatGPT hjelper meg med problemer, jeg kan ?pne meg og snakke med den om vanskelige ting, f?r tr?st og gode r?d?, svarte en elev.

I en blindtest viste det seg at mange foretrakk KI-chatbot heller enn en fagperson n?r de hadde sp?rsm?l om mental helse. Over halvparten foretrakk chatbot, under 20 prosent sa en fagperson, mens 30 prosent svarte begge.

– Dette viser hvor kraftig denne teknologien er, og at vi noen ganger foretrekker KI-generert innhold fremfor menneskeskapt innhold, sier Brandtz?g.

?Modellmakt? – som kan hallusinere

Teorien om ?modellmakt? er et annet konsept de har lansert. Den bygger p? en teori om maktforhold utviklet av sosiologen Stein Br?ten for 50 ?r siden. Modellmakt er den innflytelsen en har ved ? v?re i besittelse av en modell av virkeligheten med gjennomslagskraft, som andre m? akseptere i mangel p? egne, alternative modeller med tilsvarende kraft, if?lge artikkelen ?Modellmakt og styring? (nettavisen Panorama).

P? 70-tallet dreide det seg om hvordan medier, vitenskap, ulike grupper med autoritet, kunne p?virke mennesker, og hadde modellmakt. N? er det KI.

Brandtz?gs poeng er at KI-generert innhold ikke lenger opererer i et vakuum. Det spres ut over alt, i offentlige rapporter, i forskning, i oppslagsverk. N?r vi gj?r Google-s?k, f?r vi f?rst opp en sammenstilling skapt av KI.

– Det legges et slags KI-lag over det hele. Vi antyder at modellkraften til sosial KI kan f?re til modellmonopoler som p?virker menneskelig tro og atferd betydelig.

Fordi KI-modeller, som ChatGPT, er basert p? dialog, kaller de dem sosial KI. Men hvor genuin er en dialog med en maskin, som er matet med enorme mengder tekst?

– Sosial KI kan fremme en illusjon av ekte samtale og uavhengighet – en pseudo-autonomi gjennom pseudo-dialog, sier Brandtz?g.

Kritisk, men f?lger likevel KI-r?d

91 prosent av nordmenn er bekymret for spredning av falsk informasjon fra KI-tjenester som Copilot, ChatGPT og Gemini, if?lge en unders?kelse fra Nasjonal Kommunikasjonsmyndighet (NKOM) fra august 2025.

KI kan hallusinere. Et kjent eksempel er at en rapport Troms? kommune brukte som grunnlag til et forslag om ? legge ned ?tte skoler, var bygget p? kilder KI hadde diktet opp. Dermed kan KI bidra til feilinformasjon og undergrave brukernes tillit til b?de AI, tjenesteleverand?rer og offentlige institusjoner.

Brandtz?g sp?r seg hvor mange andre mindre kommuner og offentlige institusjoner som har gjort det samme, og er urolig for spredning av feilinformasjon.

Han og forsker-kollegaene har g?tt gjennom ulike studier som peker p? at selv om vi liker ? si vi er kritiske, s? f?lger vi likevel r?dene til KI.

– Det er kanskje ikke s? rart vi f?lger r?dene. Det er f?rste gang i historien vi snakker med en slags allmektig st?rrelse som har lest s? mye. Men det gir en modellmakt som er skummel. Vi tror vi er i en dialog, at det er et 澳门葡京手机版app下载, men det er enveiskommunikasjon.

Amerikansk monokultur

Et annet aspekt med denne modellmakten er at KI-selskapene sitter i USA, og bygger p? enorme mengder amerikansk data.

– Vi regner med at s? lite som 0,1 promille er norsk i KI-modeller som ChatGPT. Det gj?r at det er amerikansk informasjon vi forholder oss til som kan p?virke v?re verdier og beslutninger. Det er en monokultur styrt av amerikansk tenkning.

Hva betyr det for mangfold? Prinsippet er at ?the winner takes it all?, KI tar ikke minoritetshensyn. Brandtz?g p?peker at verden aldri f?r har st?tt overfor en s? inngripende teknologi, noe som gj?r at den m? reguleres og balanseres opp mot reelle menneskelige behov og verdier.

– Vi m? ikke glemme at KI ikke er et offentlig, demokratisk prosjekt. Det er kommersielt, og bak st?r noen f? amerikanske selskaper og milliard?rer, sier Brandtz?g.

Kilder:

Brandtzaeg, P. B., Skjuve, M., & F?lstad, A. (2025). AI individualism: Transforming social structures in the age of social artificial intelligence. In P. Hacker (Ed.), Oxford Intersections: AI in Society (online ed.). Oxford

Skjuve, M., F?lstad, A., Dysthe, K. K., Br?nden, A., Boletsis, C., & Brandtz?g, P. B. (2025). Unge og helseinformasjon: ChatGPT vs. fagpersoner. (Young people and health information). Tidsskrift for velferdsforskning, 27(4), 1–17. https://doi.org/10.18261/tfv.27.4.2

?

Interessert i forskning fra Det humanistiske fakultetet?

Meld deg p? v?rt m?nedlige nyhetsbrev!

Publisert 14. nov. 2025 10:50 - Sist endret 14. nov. 2025 11:25