Hvem vil overleve i et arbeidsliv med AI?

I desember i fjor var jeg med på en interessant podcast med Bente Sollid og Christian Brosstad, der temaet var hva som vil skje med arbeids- og forretningslivet nå som AI kommer inn for fullt. Temaet var opprinnelig «KI-blodbad i arbeidslivet» eller noe slikt, men både Bente og jeg likte ikke den tittelen, selv om den er skikkelig klikkbar. Det ble en lang og vidtfavnende samtale, vi endte opp med å diskutere forretningsmodeller en hel del. Etterpå sa Bente at vi kanskje burde ha brukt mer tid på hvilke egenskaper og kunnskaper som blir viktige i en verden med mye AI – med andre ord, hva skal du bli flink i for fortsatt å ha en jobb og en god inntekt?

Så her er mitt forsøk på å starte den diskusjonen, og det har jeg tenkt å begynne med å observere at vi har hatt denne diskusjonen før – for sånn omtrent 20 år siden, for å være nøyaktig. Den gang var ikke trusselen mot arbeidslivet AI, men globalisering – hva i all verden skulle vi gjøre når billig arbeidskraft i India og Kina kom og tok alle IT- og industrijobbene? Det manglet ikke på spådommer om hvor vanskelig det ville bli å beholde jobbene i vesten, når milliarder, bokstavlig talt, av indere og kinesere og andre sto klare til å overta.

Thomas Friedman: The world is flat

Den boken som dominerte den diskusjonen var Thomas Friedmans The World is Flat – du finner mitt sammendrag her – som hevdet at jorden var i ferd med å bli flatere, i den forstand at åpnere arbeidsmarkeder og finansmarkeder, hypereffektiv kommunikasjon og billig og rask transport ville gjøre verden til et sted der ting der alle nasjoner kunne konkurrere. Dette har vist seg å være en sannhet med modifikasjoner, men arbeidslivet er uten tvil endret, selv om det i alle fall for USAs vedkommende har handlet mer om automatisering av industriproduksjon enn outsourcing.

Nuvel, den samme Friedman diskuterte i alle fall hvordan man skulle ruste seg for å overleve i en verden der man konkurrerer globalt – og hans argumenter har en viss overføringsverdi når vi diskuterer hva som kommer til å skje når AI står for automatiseringen. Friedman mener at de som vil overleve er dem hvis jobb ikke kan outsources – the untouchables. Han mener det er fire typer av dem:

  • De unike: Folk som er unike og ikke kan kopieres fordi ingen andre kan gjøre det de gjør – Erling Haaland, for eksempel, eller Taylor Swift.
  • De spesialiserte: Folk som har en spesialkunnskap, som spesialiserte advokater, hjernekirurger, andre hvis arbeid rett og slett ikke kan automatiseres.
  • De forankrede: Folk som gjør noe lokalt og tilpasset, som frisører, servitører, helsepersonnel og rørleggere.
  • De fleksible: De som klarer å lære seg noe nytt, når hele eller deler av den jobben de utførte før blir automatisert. Den siste gruppen er den viktigste, fordi også de tre andre vil få deler av jobben sin automatisert.

Hovedmeldingen den gang – og i dag – er at man må hele tiden oppgradere seg, hele tiden lære, for å være relevant. Nå er det riktignok ikke en smart og ambisiøs inder som står og vil ha jobben din, men en mindre smart språkmodell som vil gjøre den delen av jobben din som bare krever middelmådige kunnskaper.

Problemet med å flytte masse arbeid til India var at man i stor grad undervurderte transaksjonskostnadene – det man vant ved å ha billige programmerere tapte man i den tiden det tok å spesifisere hva man ville ha gjort, i kulturforskjeller og tidssoneproblemer. Det betyr ikke at det ikke kan være lønnsomt, men at organisasjonen som skal flytte noe bør være stor nok til at man har penger og personell til å administrere det hele – og at man er stor nok til at man er en interresant kunde derover.

Slik er det kanskje med språkmodellene også: Riktignok kan man automatisere mye, men for mange (i hvert fall for meg) er jobben med å følge med på hva assistentene gjør så stor at jeg heller gjør det selv. Og uansett hvor bra en språkmodell er – det blir ikke helt som man vil ha det.

Kanskje det tyder på at jeg kommer til å overleve i det fremtidige arbeidslivet likevel?

Om å være i verden

For tiden leser og diskuterer jeg mye om kunstig intelligens (som alle andre, for den saks skyld, men jeg har sabbat og nye – i dette tilfellet, ikke nye – teknologier er jo det jeg driver med og underviser om.)

En av refleksjonene jeg har rundt det er «du verden, så lite ting har endret seg.»

Jeg havnet først opp i diskusjonen om kunstig intelligens på 80-tallet, da jeg jobbet i IT-avdelingen på BI og var heldig nok til å ha en sjef (Erling Iversen) som leste mye og var plugget inn i AI-diskusjonen slik den var den gang. Via ham, Fred Wenstøp, etter hvert Charles Stabell og Øystein Fjeldstad ble jeg introdusert for bøker som Heins Pagels Dreams of Reason, Bolters Turing’s Man, Hofstadters Gödel, Escher, Bach (som Erling pleide å si, «det finnes to slags IT-folk, de som har lest Hofstadter og de som ikke har gjort det.»), Rumelhart og McLellands Parallel Distributed Processing og noe senere Resnicks Turtles, Termites and Traffic Jams. (Blogget om her.)

Alle disse bøkene, og de ideene de inneholder, kan hjelpe oss å forstå hva kunstig intelligens er og hvordan vi skal håndtere den. Den forståelsen er viktig, for i dag begynner AI å blir allemannseie (omtrent som PCer på sent 80-tall, internett i andre halvdel av 90-tallet, mobil og sosiale medier på 2000-tallet) og jeg ser i alle fall at de samme misforståelsene og forventninger som var gjeldende da, også gjelder for AI.

Da kan det være verdt å se litt på tidligere diskusjoner om AI, for nesten alt man ser av argumenter har vært fremført før og har ikke mistet gyldighet selv om språkmodeller nå kan kjøres i stedet får bare å beskrives. Den viktigste kritikken av AI – og særlig om maskiner noengang kunne oppnå en eller annen form for intelligens – kom fra Hubert Dreyfus, en filosof som satte spørsmålstegn ved mange av forutsetningene som lå til grunn for tanken om at bare maskinen blir kraftig nok, blir den smart. Dreyfus artikulerte tidlig det som blir klarere og klarere etterhvert som nevrale nettverk blir allemannseie: At hjernen ikke er en datamaskin, selv om deler av den kan simuleres av et nevralt nettverk uten kontekst; og at et nevralt nettverk ikke er en hjerne, selv om det kan produsere noe som ved første øyekast ser ut som intelligens. Tenking er ikke beregning, og beregning er ikke tenking, ganske enkelt.

Jeg fant forleden en film på Youtube som beskriver og illustrerer mange av Huberts poenger, særlig det at kunnskap lages i en kontekst og ikke kan reproduseres fritt fra den. Filmen tar for seg en rekke kunstnere og andre med dyp kunnskap, og viser hvordan den kunnskapen og resultatene av den skjer i samspill både med ens egen kropp og omgivelsene. Som Dreyfus sier i filmen: «the source of meaning in our lives isn’t in us – that’s the Cartesian tradition – and it isn’t in some supreme being, but it is in our way of being in the world.» (https://youtu.be/fcCRmf_tHW8?t=4629).

Et av utsagnene synes jeg er spesielt interessant: «One of the dangers of technology is that it relieves us of the necessity of developing skills.» Ideer og kunnskaper kommer ofte som et resultat av begrensninger, av hindre som man må komme over. Med kortere og kortere avstand mellom ønske og oppfyllelse, vil vi ende opp som bortskjemte døgenikter alle sammen?

Sannsynligvis ikke, for vi vil ha kontekst og interaksjon. Plus ça change, plus c’est la meme chose…

Fra OKR til prompting: Målstyring i en AI-alder

When a measure becomes a target, it ceases to be a good measure».
Goodharts lov, tilskrevet Charles Goodhart

(Denne bloggposten ble først publisert på Comunita.no – et ledernettverk for folk med interesse for, nettopp, strategisk forretningsutvikling. Ta kontakt om du ønsker å vite mer om Comunita!)

Det er vanskelig å formulere en god strategi, i den grad at de fleste bedriftsstrategier ikke egentlig er strategier, men elegant formulert og nokså vag ønsketenkning.

Greit nok.

Men enda vanskeligere er det å implementere strategi – å gå fra overordnede mål til å spesifisere hva folk skal gjøre i hverdagen. Mange organisasjoner gjør dette ved å formulere konkrete målsettinger. Dette gjøres fordi generelle strategier gir liten konkret styringsinformasjon: Hvis du jobber på regnskapskontoret, er det ikke alltid så lett å forstå hva en strategi om at bedriften skal være «global, digital og bærekraftig» – for å sitere en bedrift jeg vet om – betyr når du er ferdig med morgenkaffen.

Bedrifter har gjerne en masse ulike kontrollsystemer, og strategisk endring gjennomføres ved at ledere implementerer strategi ved å velge et kontrollsystem og gjøre det aktivt:

In situations of strategic change, control systems are used by top managers to formalize beliefs, set boundaries on acceptable strategic behavior, define and measure critical performance variables, and motivate debate and discussion about strategic uncertainties. In addition to traditional measuring and monitoring functions, control systems are used by top managers to overcome organizational inertia; communicate new strategic agendas; establish implementation timetables and targets; and ensure continuing attention to new strategic initiatives. (Simons, 1994)

Kontrollsystemer gjør det strategiske konkret, og bedrifter med klare strategier har gjerne klare målesystemer: Microsoft, for eksempel, har en strategi om å ta i bruk de AI-basert systemene de selger, og måler (og belønner) i disse dager sine mellomledere på i hvor stor grad de klarer å flytte systemutviklingsarbeidet – og annet arbeid – fra håndkoding til automasjon.

Fra overordnet til konkret

Men hva er et godt mål, og hvordan kommer man frem til det? I utgangspunktet burde en klar og god strategi være selvforklarende, men slik er det ganske enkelt ikke. Ting må gjøres konkret, og resultatet av den prosessen har mange navn: KPI, OKR, MBO, BSC og andre TBF‘er. I Norge akkurat nå er OKR (Objektives and key results, popularisert av Andy Grove i Intel engang på 80-tallet) mest populært. Felles for alt dette er at man setter mål som er smarte, hvilket (på norsk) vil si at de er

  • Spesifikke: Klart avgrenser hvilke aktiviteter som berøres
  • Målbare: Definerer, eller i alle fall indikerer, noe som kan måles og blir målt
  • Ansvarsplassert: Spesifiserer hvem som har ansvaret for å oppnå målet
  • Realistiske: Mulige å påvirke for dem det gjelder, og kan oppnås med de ressursene som er tilgjengelige
  • Tidsbestemt: Gjelder innenfor en viss tidsperiode

Dette er temmelig tøffe kriterier, og de fleste ledere og mellomledere sliter med å formulere målsettinger som tilfredstiller alle disse kriteriene.

Man får det man måler, og bare det

Det er besnærende å tenke at bare man løser definisjonsproblemet, har man løst implementeringsutfordringen. Men vi mennesker er ikke maskiner: Får vi mange mål å forholde oss til, tenderer vi til å prioritere mellom. Og får vi svært konkrete mål, vel, så produserer vi det som konkret måles, ikke det underliggende fenomenet som er ment å måles.

BSC – balanced score card – ble skapt av Robert Kaplan og David Norton på tidlig 90-tall som en reaksjon på den utstrakte bruken av rene finansielle mål. Mye av kom i forlengelsen av Johnson & Kaplans svært inflytelsesrike Relevance Lost. Den boken viste at etterhvert som mer og mer av industriell produksjon ble automatisert, ble lønnsomhetsberegninger mer og mer et spørsmål om hvor mye av salgs- og administrasjonskostnader (GS&A) som ble tillagt enhetskostnaden. Resultatet var at man masseproduserte for mye, overoptimaliserte produksjon, og at måleinstrumentene ikke lenger ga styringsinformasjon for store deler av organisasjonen.

BSC innførte ikke-finansielle mål, relatert til kundetilfredshet, læring og interne prosesser, og ble tatt i bruk av mange organisasjoner. Dette skjedde ikke uten utfordringer – finansielle mål hadde en tendens til å trumfe alt annet i nedgangstider, for eksempel. I tillegg produserte systemet mange mål, og det viste seg at vi mennesker har problemer med å forholde oss til flere ytelsesdimensjoner samtidig. Da velger vi gjerne et av målene og overfokuserer på det: Selgere som blir belønnet for å øke salget, for eksempel, selger som bare det uten å undersøke om kjøperne trenger produktet eller er i stand til å betale for det.

Jeg er blitt fortalt at i Sovjetunionen, der finansielle mål ble undertrykket, ble møbelprodusenter målt på antall tonn møbler de produserte i året. Resultatet ble svært tunge møbler.

Den industrialiserte kunnskapsarbeideren

Detaljerte målekriterier brutt ned på grupper og kanskje til og med individer kommer fra en top-down tankegang om hva strategi er: Ledelsen ser på organisasjonen som et verktøy, og forteller organisasjonen hva den vil ha, ofte ved at ledelsens egne mål er satt av et styre som har godkjent en overordnet strategi. En slik tankegang er industriell, og egner seg best i situasjoner der målekriteriene er lett observerbare og kvantifiserbare, og der fremgangsmåten for å oppnå dem er relativt kjent.

Med andre ord: Man ber organisasjonen om å gjøre noe ved å sette kriterier for hva som er bra og hva som ikke er det.

Men hva med kunnskapsarbeid? Hittil har ikke kunnskapsarbeid blitt industrialisert i særlig grad – primært fordi systemene som skal gjøre det ikke har funnets. Riktignok har endringer i mål gjort at mange organisasjoner har fått et endret arbeidsmiljø – journalister har gått fra å få artikler antatt til å publisere ting optimalisert for klikking, for eksempel – men automatisering av reellt kunnskapsarbeid har latt vente på seg.

Fremtidens kunnskapsorganisasjoner vil ha digitale medarbeidere på lik linje med mennesker (Ide og Talamàs, 2025). Interaksjon med en digital medarbeider – la oss kalle det en språkrobot (Arnulf, 2025) – skjer ved prompting: Man spesifiserer hva man vil ha ved å spørre, og fortsetter å spørre til man er fornøyd med svaret.

Hva om vi snur litt på flisa – kan vi lære å sette gode mål for menneskelige medarbeidere ved å finne hva som er gode mål for de digitale aktørene?

Hva med å behandle menneskelige medarbeidere som digitale?

Det finnes mange utsagn om hva som er god prompting, men felles for dem er en oppbygging som sier noe om

  • hvem språkroboten skal være
  • hva den skal levere
  • med hvilke ressurser det skal gjøres
  • hva som er et bra resultat

For eksempel kan en leder med ansvar for digitalt grensesnitt i en bank tenkes å gi følgende prompt til en språkrobot:

Du er en UX-utvikler i et finansselskap. Basert på den koden som allerede er skrevet og annen kode fra andre systemer, skriv et program som tillater besteforeldre å kjøpe aksjefond til barnebarna sine som jule- eller bursdaggave. Koble dette systemet mot CRM-systemet slik at besteforeldrene blir varslet før jul og bursdager, men hold alt innenfor GDPR-regelverket.

Dette utsagnet sier noe om hvem man forventes å være, hvilke ressurser man har, hva som skal gjøres, og hva som er kriteriet for god måloppnåelse.

Eller, med andre ord, en målsetting og et resultat – men skrevet som en tekst i stedet for et numerisk målekriterium.

Dette er ikke så eksotisk som det høres ut: Amazon er kjent for at man i ledergruppen der ikke produserer Powerpoints, men i stedet skriver et sekssiders memo som leses i fellesskap (så alle må lese grundig) og som danner grunnlag for diskusjoner og beslutninger.

Men metoden er interessant fordi man kan lære noe om hvordan man skal formulere mål (og strategi) ved å måtte formulere det for en språkrobot, før man formulerer det for et menneske.

Og det kan kanskje være språkrobotens bidrag til å heve kvaliteten i det som gjøres i en organisasjon, ikke bare kvantiteten.

Litteraturhenvisninger:

Arnulf, J. K. (2025). Kunstig intelligent psykologi. Fagbokforlaget.

Ide, E., & Talamàs, E. (2025, March 3). Artificial Intelligence in the Knowledge Economy. Stanford Digital Economy Lab. https://arxiv.org/pdf/2312.05481

Johnson, H. T., & Kaplan, R. S. (1987). Relevance Lost: The Rise and Fall of Management Accounting. Harvard Business School Press.

Kaplan, R. S., & Norton, D. P. (1996). The Balanced Scorecard: Translating Strategy into Action. Harvard Business Review Press.

Simons, R. (1994). How new top managers use control systems as levers of strategic renewal. Strategic Management Journal, 15(3), 169–189. https://doi.org/10.1002/smj.4250150301

Prompts:

De tre tegningene er generert av ChatGPT 5.1, med følgende prompts:

  • Make a pencil drawing of a female CEO thinking about strategic objectives
  • Make a pencil drawing of a systems developer prompting an llm to produce a financial investment system
  • Make a pencil drawing of a manager carefully crafting a six-page memo, like they do at Amazon

Data rett fra kilden

Siden tidenes morgen har store bedrifter slitt med antikverte kjernesystemer, vanskelige å endre og vanskelige å få data ut av. Nå har noen av dem begynt å få orden på det – og hva skjer da?

ChatGPTs versjon av en COBOL-programmerer – de har tydeligvis bare tre fingre per hånd.

(Denne bloggposten ble først publisert på Comunita.no – et ledernettverk for folk med interesse for, nettopp, strategisk forretningsutvikling. Ta kontakt om du ønsker å vite mer om Comunita!)

Museumsgjenstanden i kjelleren

De grunnleggende datasystemene man bruker i store bedrifter – særlig banker og forsikringsselskaper – ble først laget på sekstitallet. De gjorde helt grunnleggende ting, som å holde orden på hva kundene hadde betalt og fått, og var programmert enten i maskinspråk, Assembler, eller (vanligvis) COBOL. COBOL – designet av ingen ringere enn kontreadmiral Grace Hopper – har vist seg å være forbausende standhaftig: Det er lett å programmere i, men når programmene blir store, er det forbausende vanskelig å endre dem. Etterhvert som ny teknologi har kommet, har de fleste bedrifter utviklet en arkitektur der de har noen svært gamle kjernesystemer – ofte i COBOL – og en mengde andre systemer rundt kjernen – systemer som kommuniserer med kjernesystemet men ikke endrer det.

Dermed ender man opp med et monster i kjelleren – et gammelt system ingen tør røre, delvis fordi det er mangel på folk som kan, dels fordi enhver endring har forgreninger inn i hundrevis, kanskje tusenvis av andre rutiner i egen og andres organisasjon. Siden ingen tør å røre det, bruker man systemene rundt – for dataanalyse, for eksempel, dumper man det som har skjedd i kjernesystemet ut i ulike lagringsløsninger, og gjør analysene derfra.

Fordelen med å trekke data ut fra systemet og gjøre det tilgjengelig er at ulike deler av organisasjonen trenger ulike typer analyser – og har man dataene separat, man man gi dem til folk og la dem gjøre hva de vil. Ulempen er at – med mindre man har en selvdisiplin av en annen verden – de ulike delene av organisasjonen snart skaper sine egne begreper og sine egne bilder av hvordan verden ser ut. Det betyr at uttrykk som «lagerbeholdning» eller «lønnsomhet» har ulike betydninger for ulike deler av organisasjonen, som jo kan gjøre det vanskelig å bli enige om ting. «Single source of truth» er et viktig prinsipp fra informatikk – masterdata skal lagres kun et sted og det skal aldri være tvil om hva som er riktige data. Dette har etterhvert blitt et begrep innen ledelse også, og en viktig motivasjon for å la kjernesystemer og dataanalyse nærme seg hverandre.

Heisenberg i regnskapet

En annen effekt – og viktig motivasjon – for å hente data fra kjernesystemene er oppdatering. Det er en klisje at all regnskapsanalyse handler om å se på fortiden for å predikere fremtiden – ofte sammenlignet med å kjøre bil ved å se i bakspeilet. Jo fersker data, jo bedre styring.

Eller kanskje ikke?

De som har sett Breaking Bad, husker sikkert at hovedpersonen Walter White brukte pseudonymet Heisenberg. Det er ikke tilfeldig – Werner Heisenberg er mannen bak usikkerhetsprinsippet, som sier at (innen kvantemekanikk) er det ikke mulig å presist måle både posisjon og hastighet for en partikkel samtidig. Jo mer presist du måler hvor en partikkel er, jo mindre vet du om hvor fort den beveger seg, og omvendt.

Innen forretningslivet må vi hele tiden ta beslutninger som krever målinger av et eller annet slag – for en bank, for eksempel, må man vurdere kredittverdigheten til en bedrift. Den samme banken vil gjerne også kunne finne ut av hvilke privatkunder som kommer til å flytte lånene sine eller slutte å betale dem – eller mer presist kunne vurdere likviditetsbehov på kort sikt, kanskje fra minutt til minutt.

Når data blir øyeblikkelig tilgjengelig, vil vel dette bli lettere?

Lager er ikke lager

Vel, ting er ikke så enkelt. La oss ta et enkelt begrep, som uttrykket «lager» – er produktet på lager?

Skal du kjøpe noe på IKEA, for eksempel, kan du jo gå på deres webside og se om det ønskede produktet er i butikken – bare for å finne at det ikke er der likevel når du kommer dit. Sjansen for at lagerbeholdningen er feil, er mindre nå enn før, fordi man har fått raskere oppdateringer. For noen år siden ble lagerbeholdningen oppdatert daglig, i en batchprosess. Så koblet man det til POS-systemet i kassen, og dermed ble tallet oppdatert når noen gikk gjennom kassen og betalte for det.

Nå er IKEAs forretningsmodell den at du henter det du skal ha, for så å bruke masse tid på å vandre rundt i en labyrint eller stå i kø mens du fristes med lysestaker, varmelys og marsipan. Den flatpakken du har på handlevognen, er fortsatt – i følge IKEA – på lager, i den forstand at de ikke har solgt den ennå. Men den er ikke på lager for neste kunde, som kommer til en tom hylle – medmindre IKEA monterer strekkodelesere eller vekter på lagerhyllene sine.

Begrepet «lagerbeholdning» er altså ikke bare tidsavhengig, men også forskjellig for forskjellige brukere, og årsaken er ikke slapp datadisiplin, men genuine forskjeller i informasjonsbehov. Dermed blir det til at man må endre beregningsmetode ikke bare ut fra hvilket tidspunkt man ønsker data på (historisk, i sanntid, eller i fremtiden) men også ut fra hvem som spør (kunde, selger, markedsansvarlig, produsent, eller den som er ansvarlig for lagerlokalene.)

Dermed blir noe så enkelt som «lager» et begrep som involverer ikke bare tall, men også relasjoner mellom ulike deler av verdikjeden, der systemene er simuleringer av virkeligheten.

Med andre ord: Jo mer presist man ønsker å måle et begrep, jo mer presist må det defineres.

Heisenberg rir igjen…