TRYs AI-rapport for 2025 tar blant annet for seg såkalte LLM-er. Men hva i alle dager er det? TRYs Martin Jensen svarer så godt han kan.

Aller først: Verken ChatGPT, Claude, Copilot, Deepseek eller andre lignende verktøy kan tenke – selv om de kan virke svært overbevisende. Men det kan de altså ikke. Alle disse tjenestene er hva vi kaller LLM-er – Large Language Models.  

Men hva er egentlig en LLM? Og hvorfor kan den skrive fantastiske tekster, men samtidig gjøre elementære regnefeil? 

 

En gjettemaskin for ord 

En LLM (Large Language Model) – eller stor språkmodell på norsk – er i bunn og grunn en ekstremt sofistikert gjettemaskin for ord. For å bli så flink til å gjette har disse systemene lest og analysert enorme mengder tekst: milliarder av bøker, artikler, nettsider og samtaler – riktignok ikke alt på internett, men svært mye nøye utvalgt materiale. 

Gjennom denne prosessen lærer de seg hvilke ord som vanligvis kommer etter hverandre, hvordan setninger bygges opp, og hvilke sammenhenger som gir mening. 

Når du stiller ChatGPT et spørsmål, starter den altså ikke å «tenke» slik du og jeg gjør. I stedet ser den på ordene du har skrevet og begynner å produsere det mest sannsynlige svaret, ord for ord. Det er derfor AI kan skrive fantastiske tekster om kompliserte emner, men samtidig kan slite med flerstegs-utregninger – fordi grunnleggende matematikk håndterer den faktisk ganske bra, men ved komplekse oppgaver må den kombinere mange steg uten å virkelig forstå tallene. 

Nyere modeller som "tenker" 

De aller nyeste modellene, som OpenAIs o1 og Anthropics Claude med "tenkemodus", tar et steg videre. De fungerer fortsatt som gjettmaskiner, men før de svarer deg, gjennomgår de en slags intern dialog hvor de "resonerer" seg frem til bedre svar. Det er som om de gir seg selv mer tid og informasjon før de svarer – ikke ulik hvordan du kanskje tenker høyt når du løser et problem. Dette gjør dem betydelig bedre på komplekse oppgaver, selv om de fortsatt ikke "tenker" på samme måte som mennesker. 

Dette forklarer også hvorfor AI-svar kan være så overbevisende selv når de er helt feil. Systemet har lært at visse formuleringer og oppbygginger «høres riktige ut» basert på alt det har lest. Moderne versjoner som ChatGPT og Claude har riktignok ofte tilgang til søkeverktøy for å sjekke fakta, men selve språkmodellen bak har ingen egen måte å vite om informasjonen stemmer. 

 

Ikke alle AI-er er LLM-er 

– En språkmodell som GPT-4 kan gi gode svar på spørsmål. Men det er ikke sikkert den har rett, forklarer Martin Jensen, Head of AI and Transformation i TRY. 

I TRYs AI-rapport forklarer TRY blant annet hvordan utviklingen nå går fra enkle språkmodeller til AI-agenter som kan handle selvstendig: 

– En agent kan starte med målet «Analyser konkurrentlandskapet vårt og lag en rapport», og deretter selv ta ansvar for å planlegge, hente data, søke på nett, bruke verktøy, evaluere resultatene og sende ut et ferdig dokument, sier han. 

LLM-er er det vi kaller generativ AI – de skaper nytt innhold som tekst, bilder eller kode. Men det finnes også tradisjonell AI og maskinlæring som har vært med oss lenge. Bildegjenkjenning bruker maskinlæring for å «se» og kategorisere hva som er på bilder. Anbefalingsalgoritmer på Netflix bruker tradisjonell AI for å analysere seervanene dine og foreslå filmer. Disse systemene er eksperter på å analysere og sortere informasjon, men de skaper ikke nytt innhold slik LLM-er gjør. 

Det smarte er at moderne AI-systemer ofte kombinerer flere teknikker, noe man kaller multimodal AI. Når du bruker ChatGPT til å analysere et bilde, kombinerer systemet faktisk to typer AI: en som «ser» bildet og forstår hva som er på det (tradisjonell bildegjenkjenning), og en LLM som beskriver det med ord (generativ AI). Ikke intelligent, men utrolig nyttig.

ChatGPT er trent på enorme mengder tekst fra internett, bøker og artikler, og har lagt mye av grunnlaget for hvordan andre LLM-er bygges. Claude fokuserer på å være hjelpsom og trygg i bruk, mens Gemini skiller seg ut ved å være trent ikke bare på tekst, men også på store mengder bildedata. 

 En LLM er ikke intelligent på samme måte som mennesker, den er bare ekstremt god til å etterligne hvordan vi skriver og snakker. Det gjør den utrolig nyttig for mange oppgaver, men forklarer også hvorfor du alltid må dobbeltsjekke viktig informasjon den gir deg. 

 

Denne artikkelen er basert på TRYs rapport «AI anno 2025 – Et dypdykk i kreativitet, ringvirkninger og lønnsomhet». Rapporten gir en omfattende oversikt over AI-teknologiens påvirkning på samfunnet og belyser muligheter og utfordringer knyttet til utvikling og bruk av kunstig intelligens.