I 2017 ble ?falske nyheter? k?ret til ?rets nyord av Spr?kr?det. Men hva er de spr?klige trekkene ved falske nyheter, og kan falske nyheter avsl?res p? bakgrunn av spr?klige trekk? Det har spr?kforsker Silje Susanne Alvestad sett n?rmere p? i prosjektet ?Fakespeak – spr?ket i falske nyheter?. Hun og forskerkollegaene har unders?kt spr?ket i falske nyheter p? engelsk, russisk og norsk.
Prosjektet bygger blant annet p? forskning fra University of Birmingham, som har unders?kt artiklene til den tidligere journalisten i New York Times, Jayson Blair. Han mistet jobben i 2003 etter at det ble avsl?rt at han skrev falske nyheter.
– Forskerne sammenlignet de sanne og de falske artiklene hans for ? se om de fant forskjeller. Et interessant funn var at han overveiende skrev i presens n?r han l?y, og i fortid n?r han skrev genuine nyheter, sier Alvestad.
Mer uformell stil i usanne artikler
De fant ogs? forskjeller i bruk av pronomen. Videre hadde de genuine artiklene i gjennomsnitt en lengre ordlengde, og de fabrikkerte tekstene hadde en mer muntlig og uformell stil. De fant ogs? h?y bruk av s?kalte emfatiske uttrykk, det vil si framhevende uttrykk, i de fabrikkerte tekstene, for eksempel ?truly?, ?really? og ?most?.
Alvestad og kollegaene har sammenlignet Jayson Blair-tekstene med lignende tekstsamlinger der én og samme person har skrevet b?de genuine og falske nyheter. De ser at de spr?klige trekkene ved falske nyheter varierer etter hva slags motivasjon opphavspersonen har for ? f?re folk bak lyset.
– Blair forteller i sin selvbiografi at motivasjonen hans f?rst og fremst var penger, og vi fant for eksempel ut at hans fabrikkerte nyheter inneholdt f? metaforer. N?r motivasjonen derimot er ideologisk, brukes flere metaforer, da ofte fra domener som sport og krig, sier Alvestad.
Mer skr?sikre i falske nyheter
At falske nyheter kan ha en mer skr?sikker stil, er et annet viktig funn. De har unders?kt det som p? engelsk kalles ?stance?. Det er m?ter opphavspersonen gir uttrykk for holdninger, oppfatninger og tanker p?.
– I falske nyheter gir ofte den som skriver uttrykk for at han eller hun er bombesikker p? at det som fortelles, er tilfelle. Dette kalles ?epistemisk sikkerhet?. Man kan se en overrepresentasjon av uttrykk for slik sikkerhet, for eksempel ?obviously?, ?evidently?, ?as a matter of fact?, og s? videre.
Denne tendensen er sterkere i russisk spr?k enn i engelsk.
– Vi spurte oss om det finnes et universelt spr?k for falske nyheter. Det har vi kommet fram til at det ikke gj?r. De spr?klige trekkene ved falske nyheter varierer innenfor enkeltspr?k og mellom spr?k. De avhenger av kontekst og kultur, sier Alvestad.
Har utviklet faktasjekkverkt?y

Dermed blir det ogs? hakket mer utfordrende ? utvikle faktasjekkverkt?y for falske nyheter basert p? spr?klige trekk. Dette var noe prosjektet hadde som m?l ? gj?re sammen med informatikere fra SINTEF. De har likevel klart ? lage et faktasjekkverkt?y, og det kan pr?ves ut p? forskningsinstituttet SINTEF sine nettsider.
– Fra et spr?kvitenskapelig perspektiv har vi v?rt kritiske til at definisjonen av falske nyheter i praksis har rommet for mange sjangere. Det gj?r at en ikke helt vet hva forskjellene mellom falske og genuine nyheter skyldes. Det trengs gode og balanserte datasett for ? utvikle gode faktasjekkverkt?y, og en m?lrettet og sofistikert spr?kvitenskapelig tiln?rming, mener Alvestad
Desinformasjon fra KI
Mens forskerne har jobbet med Fakespeak-prosjektet, har utviklingen innen kunstig intelligens (KI) skutt fart og endret landskapet for falske nyheter. Det la grunnlaget for prosjektet NxtGenFake, som dreier seg om identifisering av KI-generert desinformasjon. Alvestad og de andre forskerne bruker materialet fra Fakespeak for ? finne spr?klige trekk ved desinformasjon laget av KI.
– Rene fabrikkerte nyheter, som det var en del av for seks, sju ?r tilbake, har kanskje ikke den store p?virkningskraften. Det er heller et st?rre problem med falske nyheter som kan v?re en blanding av sant og usant, sier Alvestad.
I NxtGenFake g?r de bort fra begrepet falske nyheter, og snakker om desinformasjon.
– Noe av informasjonen er sann, men hele sannheten tas ikke med. Den spisses, settes gjerne i feil kontekst, og overlapper ofte med propaganda. Denne miksen gj?r at de lett sniker seg under radaren p? verifiseringsmekanismer p? nettet, og gj?r dem ekstra utfordrende.
Mindre variasjon hos KI
NxtGenFake-prosjektet skal holde p? til 2029, men forskerne har allerede noen funn. Som at det er mindre variasjon i bruk av overbevisningsteknikker i KI-generert propaganda, sammenlignet med propaganda skrevet av mennesker.
- Det er to typer teknikker som utpeker seg i de KI-genererte tekstene. Den ene er den vi kaller Appeal to Authority, som dreier seg om referanse til kilden for informasjonen. Vi legger merke til at disse referansene er generiske, det vil si at de typisk st?r i ubestemt form. Det kan for eksempel st? ?if?lge forskere? eller ?eksperter mener?. Store spr?kmodeller gj?r sannsynligvis slike grep fordi de jo ikke har noen relasjon til verden, og vet ikke hva som er sant og ikke. Men p? denne m?ten blir p?standene sv?rt vanskelig, om ikke umulig, ? verifisere.
Den andre teknikken er at KI-genererte nyheter med propagandainnslag avsluttes p? en annen m?te enn propaganda produsert av mennesker. De ender ofte med formuleringer som forskerne kaller Appeal to Values, alts? en appell til verdier. Her argumenteres det for at noe m? gj?res for ? eksempelvis sikre ?kt vekst, ?kt rettferdighet eller ?kt tillit i befolkningen.
H?per p? ?kt bevisstgj?ring
Hvordan reagerer s? mennesker p? KI-generert desinformasjon sammenlignet med desinformasjon skrevet av mennesker? Forskerne har gjennomf?rt en test med amerikanere som ble bedt om ? rangere KI-genererte tekster og tekster skrevet av mennesker, etter tre parametere: troverdighet, appell til f?lelser og hvor informative de er. Testpersonene kjente ikke til kilden til tekstene.
Den KI-genererte desinformasjonen ble b?de vurdert som mer troverdig og informativ, enn desinformasjon skrevet av mennesker. Forskerne spurte ogs? hvilket av tekstutdragene respondentene ville lese mer av, og da er det betydelig flere som svarer at de vil fortsette p? tekstene som er KI-generert.
– Vi ble ikke overrasket over at respondentene foretrakk de KI-genererte tekstene. Men jeg ble personlig litt overrasket over at de KI-genererte tekstene ikke scoret h?yt p? appell til f?lelser. I stedet ble de jo oppfattet som b?de mer informative og troverdige enn tekster skrevet av mennesker, sier Alvestad.
Dette tyder p? at det kan v?re vanskeligere ? avsl?re KI-generert desinformasjon. Store spr?kmodeller kan pakke feil- og desinformasjon inn i sjangrer som vi i utgangspunktet har tillit til. Dette mener Alvestad det er viktig at vi er bevisst p?.
– Jeg h?per prosjektresultatene kan bidra til ?kt bevisstgj?ring om risikoene knyttet til store spr?kmodeller, s?rlig i en tid der slike verkt?y i ?kende grad tas i bruk.

