Digital disrupsjon (et foredrag)

Arild Haraldsen har i en rekke artikler i Digi.no gjort rede for hvorfor det går så tregt med digitaliseringen i offentlig forvaltning. Jeg er 100% enig med ham og har litt dårlig samvittighet fordi jeg ikke har skrevet en haug med kronikker til støtte. Norsk offentlig forvaltning må digitalisere for at velferdsstaten skal overleve, men feil organisering, feil insentiver, revirtenking, inkompetanse, håpløse prosesser og feige politikere sørger for at det går altfor tregt og blir altfor dyrt.

Så jeg får støtte Arild gjennom i stedet å legge ut dette foredraget som jeg holdt for Riksrevisjonen 29. november 2018. Mitt hovedpoeng er at offentlig digitalisering går for tregt og tar ikke ut effektene, og jeg er skarpt kritisk til bl.a. Difi fordi de ikke gjør den strategiske endringsjobben de er satt til å gjøre og i stedet forelsker seg i sine egne løsninger. Offentlig digitalisering, etter min mening, er snakk om kirurgi, ikke massasje. Og noen – for eksempel Riksrevisjonen – trenger å ta den strategiske rollen, siden ingen andre gjør det.

Foredraget er en snau time langt, her er de viktigste punktene:

00:00 Introduksjon
02:00 Teknologi er ikke farlig og har ikke noe med alder å gjøre
05:30 Riksrevisjonen og digitalisering i lille Norge
07:30 Teknologi, forretning og strategi – en sammenheng
09:30 Disrupsjon og hva det egentlig er
14:30 Disrupsjonseksempel: Cutters
17:00 Hva digitalisering egentlig er… (digitisering, digitalisering, digital transformasjon)
18:45 Hva digitalisering i det offentlig burde være (og Difi er det ikke)
22:15 Det finnes håp (eksempel fra Skatteetaten)
24:55 Hvorfor vi ikke skal tenke for mye fremtiden (og problemene vil være noe annet)
27:20 Nye teknologier: Delingsøkonomi
29:00 Nye teknologier: Tingenes Internett
30:30 Digitale tvillinger og hvordan revisjon og kontroll endres
34:00 Stordataanalyse og hvordan den endrer kontroll og forskning
35:45 Ikke gjør digitalisering ved å kopiere gammel teknologi
39:00 Kunnskapsmangel er ingen unnskyldning lenger
40:20 Digitalt førstevalg betyr digitalt førstevalg på ledere
42:50 Lag systemer for innovasjon, ikke for kontrakt
45:25 Når offentlig revirtenking tar liv (Smarthelp)
49:50 Hvordan ser en digital og datadreven organisasjon ut?
53:00 Spørsmål

Jeg er nokså pesete i begynnelsen, fordi jeg var på slutten av en treukers forkjølelse og fremdeles var sliten. Endel av tallene jeg kommer med er upresise fordi jeg tar dem fra hukommelsen, uten at det påvirker poengene i vesentlig grad, og jeg har noen andre bommerter i farten også (navn og lignende). For ikke å snakke om at jeg blir direkte sint når det gjelder Smarthelp.

For ordens skyld – min kritikk av Difi retter seg mot ledelsen, jeg kjenner en hel del folk der som gjør en iherdig jobb.

God fornøyelse – og gid noen der ute føler seg inspirert til å faktisk gjennomføre litt ordentlig digitalisering, i stedet for å bare legge asfalt på kutråkkene….

Er du smart nok for smarte organisasjoner?

dn-09272018-smart-nok-til-acc8a-lede-intelligente-organisasjoner_pdfLiten artikkel i DN i dag, bygget på en artikkel i BI Business Review (kommer etterhvert), som igjen bygger på dette kapittelet i BIs jubileumsbok. (Og stor takk til Audun Farbrot for en formidabel innsats i forskningskommunikasjonens tjeneste i denne sammenheng.)

Og artikkelen? Vel, jeg vedlegger en PDF, lenken (betalingsmur) finner du nedenfor, og som så meget annet handler denne artikkelen om at man ikke kan innføre nye teknologier (i dette tilfelle dataanalyse) uten samtidig å endre organisasjonen (i dette tilfelle ledelsesrollen.) Dataanalyse og den datadrevne organisasjonen må forholde seg til et faktabasert verdensbilde, noe som krever evne til å sanse, forstå, handle, lære og forklare – kontinuerlig, og i stor skala.

Lenke til DN: https://www.dn.no/innlegg/ledelse/digitalisering/smart-nok-for-smarte-organisasjoner/2-1-424362

PDF: DN 09272018 Smart nok til å lede intelligente organisasjoner

(Og nei, jeg har ikke begynt å jobbe for Accenture. Fire forfattere ble tydeligvis litt for vanskelig for DN…)

Diskuter digitalisering i Sophia Antipolis!

IMG_3657Nok en gang ønsker Ragnvald Sannes og jeg velkommen til et Executive Short Program (23-26 oktober i år) kalt Digitalisering for vekst og innovasjon i Antibes og i teknologiparken Sophia Antipolis, Europas svar på Silicon Valley, like utenfor Nice i Syd-Frankrike. Hensikten er å vise frem interessante nye teknologiske muligheter og invitere til en dialog om hvordan man kan ta disse i bruk innenfor egen virksomhet.

acc-sophDette programmet er ment som et møtested (gjerne for flere mennesker fra samme bedrift,) der vi i tillegg til å vise frem mye ny teknologi setter av tid til diskusjon mellom deltakerne. Det gir en anledning for ledere og ledergrupper til ta en time-out og tid til å tenke over hva den nye teknologien (Blockchain, Internet-of-things, analytics, robotics, delingsøkonomi, automatisering, digitale tvillinger, etc.) betyr for din bedrift og din (eller dine kunders) situasjon og prosesser. Vi vil også forsøke å systematisk fange opp hvilke muligheter og utfordringer hver enkelt bedrift står overfor, og hjelpe til å finne perspektiver for hver enkelt bedrift eller organisasjon om hvordan man skal forholde seg til utviklingen.

IMG_3647Det er 11. gang Ragnvald og jeg arrangerer et seminar der nede sammen med Accenture Technology Labs, og fjerde gang vi gjør dette som et selvstendig, firedagers program. Deltakerne på det første tre programmene har vært svært fornøyd. En av tingene vi har lært av deltakerne er å sette av tid til diskusjoner – man lærer minst like mye av hverandre som av Ragnvald og meg – og at diskusjonene, i hvert fall mellom deltakerne, kommer til å være på norsk.

Her er noen linker til notater jeg har tatt ved tidligere besøk. Jeg ser frem denne uken, til å lære nye ting, og til å bli kjent med nye mennesker med interessante utfordringer og et ønske om å forstå hvilket potensiale som ligger, forretnings- og arbeidsmessig, i ny teknologi!

Vi sees! (Og har du spørsmål, send meg gjerne en epost.)

berne.jpg

Uber og Lyft endrer hva som er «sentralt»

smestadLiten notis her: I følge BoingBoing (suveren nettside for alt som skjer på Internett, egentlig) er boligkjøpere i San Francisco mindre villige til å betale for nærhet til offentlig kommunikasjon, siden Uber og Lyft gjør det så lett og billig å forflytte seg.

For meg er det et interessant eksempel på at vi tilpasser vår planlegging til en teknologi – og så endrer den seg og det vi har planlagt passer ikke lenger. Oslo har i dag en strategi om fortetting rundt kommunikasjonsknutepunkter: Man skal bygge masse leiligheter rundt steder som Storo, Holtet, Smestadkrysset, fordi de som bor i leilighetene vil ta offentlig transport. Dette passer bra fordi gammel industri- og transportinfrastruktur ligger sentralt og tilbyr de få ledige tomtene som finnes i Oslo. Men når vi får selvkjørende (og elektriske) biler (og det tar nok lenger tid i bystrøk enn jeg håper på) spiller det jo mindre rolle, rent kommunikasjonsmessig, om man bor i nærheten av en T-banestasjon.

Med andre ord: En kommunikasjonsnær leilighet kan være en god investering på (relativt) kort sikt, mindre attraktiv på lengre sikt…

Distribuert sannhet i det offentlige

Distribuert_sannhetI dag var jeg på seminar om blockchain i offentlig forvaltning, spesifikt om et lite prosjekt med bl.a. Brønnøysund, IBM og en studentgruppe fra OsloMet, som har gjort en liten studie av hvordan man kan bruke blockchain til å implementere et offentlig eierskapsregister for ikke-noterte aksjeselskaper. Det var interessant å høre på, men en bonus var et meget godt foredrag av Stein Bjørnstad (full disclosure her: I ledige stunder er han kollega med meg på BI) om «distribuert sannhet». Bakgrunnen er en fersk rapport fra Deloitte for Kommunal- og Moderniseringsdepartementet om bruken av blokkjeder i et land der tilliten til myndighetene er så stor at man kanskje ikke skulle tro blokkjeder var nødvendig.

Og den rapporten er lettlest, presis og interessant, og er herved sterkt anbefalt for alle som er interessert ikke bare i blokkjeder, men hva man kan gjøre med dem og hvilke hindre som vil stå i veien.

Nettverksledelse i praksis

join21Herved en invitasjon til noe som i alle fall for meg er noe nytt og spennende: Et ESP (Executive Short Program) kalt Nettverksledelse i praksis som første gang arrangeres på BI 15. mai og 12. juni.

Programmet baserer seg på kartlegging og ledelse av nettverk innen bedrifter – det er nemlig slik at bedrifter (og alle organisasjoner, for den saks skyld) ikke fungerer basert på organisasjonskart, men ved at mennesker snakker sammen. Et viktig element av å få organisasjoner til å fungere og endringer til å skje er å forstå hvordan informasjon flyter og beslutninger tas – og med moderne kartleggings- og analyseverktøy kan man få frem mye interessant.

jantaughenrik-bentzenDette seminaret skjer i samarbeid med Jan Taug og Henrik Bentzen fra Join21, som hjelper organisasjoner og folk å mestre teknologi – ikke minst ved å forstå hvordan (og med hvem) man skal kommunisere for å få til digitalisering. Ragnvald Sannes og jeg skal også være med å undervise og diskutere. Jan og Henrik har lang leder- og analyseerfaring og Ragnvald og jeg ser frem til å jobbe med dem.

Her er en liten videofilm der jeg snakker litt om kurset og viser noen (svært enkle) eksempler på nettverksanalyse. En liten bemerkning før du ser den, bare for å understreke det forretningsmessige: I filmen snakker jeg om nettverk man ikke vet om, som f.eks. mellom røykere eller kvinner – men hvis man tenker mer forretningsmessig på det, kan det være viktig å kartlegge hvem som er informasjonskilder og -formidlere gjennom hverandre, hvem som danner ekspertnettverk, for eksempel. Flere ledere jeg har kjent, ser på epost-trafikken eller de interne kommentarfeltene for å finne ut hvem det er som ikke bare har peiling, men også har kommunikasjonsevne til å hjelpe andre:

Tanken er at vi skal ha en dag først der vi ser på interne nettverk som konsept og hvordan man kan bruke dem. Så blir det noen uker i midten der man samler data fra organisasjonene som deltar, og så en dag med analyse av disse nettverkene og diskusjon om hva den nye forståelsen betyr for ledelse og innovasjon.

Dette er ikke et kurs som i utgangspunktet er beregnet på enkeltpersoner – vi er på jakt etter selskaper som ønsker å delta med flere personer fra ledergruppen. Ta kontakt med Ragnvald, meg, Jan eller Henrik om du er interessert – eller bare meld deg på på kurssiden.

Selvkjørende brøytebiler

På Leirinn flyplass (en flyplass ved Fagernes som på folkemunne kalles den himmelske freds plass, siden det svært sjelden lander noen der) eksperimenterer Avinor med selvkjørende brøytebiler. Her er en video som viser hvordan dette gjøres:

Dette er interessant og et bra prosjekt, men for meg er det et interessant eksempel på hvordan vi tester ut ny teknologi ved å omforme tradisjonell teknologi. Det man har gjort her, er å ta dagens brøytebiler for flyplass og legge til teknologi for selvkjøring. Men er det slik dette kommer til å se ut i fremtiden?

Fra en flyplass i Norge fikk jeg høre at hver slik sweeper (brøytemaskin) koster rundt MNOK 4. Denne flyplassen har fem av dem, samt endel annet tungt materiale. Hver sweeper har en børste på 5,5 meter samt et skråstilt skjær på 8 meter. Dette gir brøytebredde tilsvarende børsten (5,5). Rullebanen på denne flyplassen er 45 meter bred, noe som etter mine beregninger betyr at man klarer (nesten) hele rullebanens bredde på en tur frem og tilbake (fem biler er 27,5 meter i bredden, en tur hver vei holder fint, med litt overlapp som det jo må bli. En normal brøyting tar i underkant av 20 minutter. I tillegg kommer selvfølgelig taxebaner, oppstillingsplasser, avisningsplass og andre ting som må brøytes.

Min tanke er at om vi bygget disse bilene som selvkjørende helt fra begynnelsen av, så hadde de ikke måttet se ut som vanlige lastebiler. Vi kunne laget dem små, kanskje bare et par tonn, og lave (kanskje ikke høyere enn skjæret). Det betyr at de kunne stå parkert ved enden av rullebanen, eller på siden, og stå klare til å måke til enhver tid, kanskje i en undergrunnsgarasje, bare en meter dyp. Man kunne hatt mange av dem (kanskje 30 stykker, med 2 meters børste/skjær) som kunne ta hele banen i en jafs, og så stå parkert igjen, kanskje på i den andre enden av rullebanen, eller de kunne tatt seg en tur og måket litt andre steder rundt omkring til det var på tide å sveipe rullebanen igjen. De ville naturligvis vært elektriske, noe som gjør at de blir tunge, krever svært lite vedlikehold og kan kjøre bort til ladestasjonen selv. Kanskje de ville vært beltedrevet for godt grep på is, og mindre behov for vekt (tenk beltedrevet snefreser). De ville også kunne ha en kjemikalietank, eventuelt rusle bort og hente en de kunne taue (man legger ut kjemikalier ved underkjølt regn.)

En årsak til at man har få og store biler er lønn, siden hver bil krever en sjåfør. Lønnsutgifter er ikke det verste med brøyting, har jeg blitt fortalt, men likevel: Her kunne man hatt 30 enheter stående klar til enhver tid, som kunne sveipet over rullebanen fort (mellom landinger) og har mye kortere oppstartstid – de ville f.eks. kunne styres fra tårnet. På små flyplasser kunne man klart seg med noen få, som bruker lenger tid, ikke klarer store snømengder, men gjør opp for det med iherdighet og konstant måking.

Verdt å tenke på – og jeg tror nok vi kommer dit etterhvert. I mellomtiden kan man jo beundre hva som skjer på Fagernes – generasjon 1 innen selvkjørende måking.

Jeg vil ha en sånn!

Her i familien har vi en gammel firehjulstrekker (en Mercedes ML320 fra 20032000) til å dra hageavfall og annet med. (Den har vært kommandobil for Vestre Viken helsedistrikt, så vi kaller den bare «kommandobilen».) Den er grei nok, men som med alle fossilbiler har den en komplisert arkitektur og mange delsystemer som kan slå feil. Jeg har tenkt å ha den 3-4 år til, til det kommer elbiler som har kombinasjonen hengerfeste og enkelhet. (Jada, Tesla X, men den er dyr og jeg synes bakdørene er overkompliserte.)

Og nå ser det ut til at det begynner å skje: Ta en kikk på Bollinger B1, som er en av de første elektriske 4×4-bilene jeg har sett som er bygget som elbil fra grunnen av. Her er et lite innslag med Rob Llewellyn:

Jeg er særlig fascinert av at man kan lage en tunnel tvers gjennom hele bilen for lange gjenstander.

Nå vet jeg i alle fall hva jeg skal ønske meg som leketøy om en tre-fire års tid….

Kunnskapsrepresentasjon

Fredag var jeg på «toppmøte» om digitalisering, et møte der regjeringsmedlemmer (8 ministre på hvert sitt bord), universitetsrektorer, og andre samfunnstopper diskuterte digitalisering i Norge, primært rundt offentlig sektor. Det var innledende presentasjoner av Camilla Tepfers, Morten Dæhlen, Camilla Serck-Hanssen og Hege Skryseth. Gjennomgangstemaene var de det pleier å være: Vi mangler digital kompetanse, mangler tverrfaglighet (i mange dimensjoner) og skal det skje noe i offentlig sektor må vi rive eller i alle fall forbinde siloene.

Jeg fikk mye å tenke på og skrive om – og mitt hovedinntrykk er at vi vet hva vi skal gjøre, men vi gjør det bare ikke.

Nok om det. I denne omgang skal jeg ta for meg noe mer spesifikt, nemlig kunnskapsrepresentasjon.

Morten hadde et utmerket innlegg som han har delt på mat-nats blogg, og der hadde han dette som et av fire hovedpunkter:

Digital representasjon og visualisering. Behovet for kunnskap om digital representasjon av kunnskap synes å være undervurdert, men dette området er i vekst, noe som i all hovedsak skyldes dataeksplosjonen. Kunnskap om hvordan digitale representasjoner presenteres og visualiseres er også en vesentlig del av dette.

Jeg kunne ikke vært mer enig, men hva betyr egentlig digital representasjon og visualisering? Ved første øyekast kan det se ut som evnen til å lage delikate fremstillinger av data, som for eksempel Hans Roslings fantastiske TED-foredrag. Men egentlig betyr uttrykket mer å klare å gjøre data tilgjengelig i en form som datamaskiner kan behandle.

Wikipedia beskriver knowledge representation and reasoning som «the field of artificial intelligence (AI) dedicated to representing information about the world in a form that a computer system can utilize to solve complex tasks». Er det en ting jeg har funnet ut ved å undervise kurs i strategisk dataanalyse, så er det at det å få dataene inn i en form og med et innhold der man faktisk kan gjøre noe med dem er kanskje den nest største vanskeligheten. (Den største er å formulere spørsmål som faktisk lar seg besvare, mer om det en annen gang.)

La oss ta et helt banalt eksempel: Sett at du underviser et kurs (som jeg ofte gjør) og du skal lage deg et regneark for å holde orden på studentene. Du ber administrasjonen om en liste over hvem som er med i kurset, og får et regneark eller en tabell som ser slik ut:

hogwarts

Utmerket, i og for seg. Men vent litt – hva om jeg har lyst til sortere studentene alfabetisk på etternavn, eller å lage navneskilt til studentene med fornavnet på en linje og etternavnet under? Da er det ganske klart at kolonne B ikke er satt opp for dette, siden for- og etternavn ikke er adskilt. Hvis jeg skal gjøre det, må jeg enten gå gjennom alle studentene og manuelt skille for- og etternavn (tidkrevende og kjedelig), eller skrive en liten makro som gjør det automatisk. Den siste løsningen introduserer feilkilder: En av Harry Potters medstudenter hetter «Choo Chang» og omtales som Choo, men egentlig burde hun jo vært «Chang Choo» siden navnet er aseatisk. For ikke å snakke om studenter med navn som «Jose Maria Casiento Gomez-Caseres de Monteleon», hvor det ikke er helt enkelt å finne ut hva man skal kalle dem.

Og her er vi fremme ved hva kunnskapsrepresentasjon er – hvordan gjør man data tilgjengelig slik at man kan bruke det til noe, uten at man på forhånd vet hva dette «noe» er?

Dette er vanskeligere enn man tror, og har å gjøre med informasjonsarkitektur, databasestrukturer, metadata, APIer og masse annet morsomt. Men bare ha dette lille eksempelet i mente, så har du i alle fall litt av den digitale kompetansen Morten etterlyser…

Freelancerens innstilling og verktøykasse

praxis-architectureJeg er ikke freelancer, men jeg har to jobber (en 100% – i praksis 200% – og en på 20%), to styreverv med tidvis svært mye involvering, leder to EGN-nettverksgrupper og snart en til, har en haug foredrag og et og annet konsulentoppdrag. Dessuten tror noen at jeg er teaterkritiker.

Så jeg føler meg litt som et enmannsfirma, en frilanser med noen lange oppdrag. Det er smart å tenke slik – man får litt selvtillit, man er ikke så avhengig av enkeltinstitusjoners vingling hit og dit, og man kan velge sine verktøy selv. (Det siste blir man som regel nødt til, ellers får man lite gjort.)

Og det er jo ikke bildet på en verdensfjern akademiker, er det vel – jeg sitter ikke på kontoret og graver meg ned i dybden i en ting, selv om jeg har en pågående fantasi om at det et det jeg driver med. Eller burde drive med. (Når det er sagt: Nokså få akademikere gjør egentlig dette. Men fantasien er der, i hvert fall blant næringslivsledere som tenker på å ta en doktorgrad for å trekke seg tilbake litt og tenke de lange tankene.

Nuvel. Etterhvert har jeg forstått at dette jeg driver med er normalt – en akademisk institusjon er, for å sitere en eller annen Clark Kerr, tidligere president ved University of California, som oppfattet et moderne universitet som «a series of individual faculty entrepreneurs held together by a common grievance over parking». På BI har vi ikke parkeringsproblemer, men ellers holder modellen: Folk gjør det de er opptatt av – som regel i løse samarbeid med andre – og er, for å bruke Ferdinand Tönnies‘ nyttige inndeling, mer opptatt av et globalt Gemeinschaft (med andre akademikere) enn Gesellschaft. «Globals» i stedet for «Locals», med andre ord.

Hvilket reiser spørsmålet – hvis man skal definere seg selv som freelancer i stedet for akademiker – hvordan blir man produktiv i en sådan setting? Og hvordan finner man folk å modellere sin arbeidspraksis etter?

Dette blogginnlegget kommer etter å ha lest Tiago Fortes glimrende The Rise of the Full-Stack Freelancer: A Portfolio Approach to Modern Work og bli slått av i hvilken forbausende grad hans arbeidshverdag ligner min. Og det tror jeg gjelder flere, også folk i fulltidsjobber, selv om de bare har én jobb.

Forte har også en artikkel nummer to, der han lister opp de verktøyene han bruker, og igjen blir jeg slått av likhetene. Jeg bruker Word, Excel og Powerpoint i stedet for Apples produkter, og har naturligvis andre løsninger for regnskap og fakturering og annet som er Norges-basert i stedet for amerikansk, men ellers er det stor overlapp. Og det har slått meg før – skal du drive en vidløftig kunnskapsvirksomhet og håndtere mange ideer og mye informasjon, kommer du ikke utenom Evernote, for eksempel. For ikke å snakke om Google-verktøyene, kalendere og annet.

Det er greit å tenke som en freelancer, selv om man ikke egentlig er det. Som Forte sier:

…the most compelling aspect of Full-Stack Freelancing is that it offers a middle ground, with potentially the best of both worlds. It is pragmatic, recognizing that most people are generalists who want to pursue diverse interests. But it is also aspirational, recognizing that you need the flexibility to take advantage of unexpected opportunities.

Og det gir jo, om ikke annet, et nokså fleksibelt syn på hva man har lyst til å holde på med. For ikke å snakke om en formidabel følelse av uavhengighet.

Robotbevegelser til neste nivå…

Jeg har tidligere vist frem roboten Handle som et eksempel på at roboter vil kunne brukes også i situasjoner der det ikke finnes infrastruktur – for eksempel i norske dagligvarebutikker.

Her er neste versjon, sylfersk video fra Boston Dynamics:

Og dermed kan hylekoret starte…

Monsteret i kjelleren

220px-commodore_grace_m-_hopper2c_usn_28covered29I 1959 møttes en gruppe informatikere (tror ikke det het informatikk den gangen, men likevel) i en gruppe kalt CODASYL og laget et programmeringsspråk med navnet COBOL, delvis bygget på andre programmeringsspråk laget av Grace Murray Hopper, kanskje den nest viktigste kvinnen i datahistorien (etter Ada Lovelace).

Hele ideen med COBOL var at programmeringsspråk skulle være bygget på vanlig (engelsk) språk, slik at «vanlige» mennesker skulle kunne lese dem og bruke dem. Slik har det i grunnen aldri blitt, men tanken har vært der lenge. COBOL skulle kunne kjøres på mange ulike maskiner (før det kom, hadde man en tendens til at hver maskinleverandør hadde sine egne programmeringsspråk, men nå fikk man i stedet COBOL, om enn med litt ulike dialekter.)

COBOL (som står for Common Business-Oriented Language) ble tatt i bruk av mange bedrifter til administrative systemer, dels fordi det lignet engelsk, delvis fordi det var bra til å lese inn data, gjøre relativt enkle ting, og deretter spytte ut utskrifter. I motsetning til mange senere programmeringsspråk skilte COBOL og akademia lag – noe som førte til at språket fikk relativt lite utvikling utover tilpasning til nye maskiner. Opplæringen skjedde utenom universiteter og utenfor den faglig baserte informatikken. Etterhvert skilte også programmering lag – forretningssystemer ble skrevet i COBOL, mens akademisk orienterte systemer og etterhvert mer generell systemutvikling gikk gjennom en rekke ulike språk (C, Basic, Pascal, C++, SmallTalk, LISP, VisualBasic, Perl, Python, for å nevne noen.)

De første systemene som ble laget for bedrifter var systemer for repetitive oppgaver som regnskap, lønnsutbetaling og fakturering, og disse ble gjerne programmert i COBOL. Etterhvert førte det til at flere og flere bedrifter fikk en arkitektur der kjernesystemene var laget i COBOL og sto relativt stille (først fordi de gjorde standardiserte ting, etterhvert fordi det ble stadig mer vanskelig å finne programmerere som kunne COBOL, noe som gjorde at det ble dyrt og kronglete å få endret noe.) Riktignok flyttet en hel del bedrifter, særlig produksjonsbedrifter, sine systemer over ERP-systemet SAP i løpet av 90-tallet, men for mange nettverksbedrifter (banker, forsikringsselskap, transport, etc.) er stadig kjernesystemene skrevet i COBOL, og kjøres gjerne også på en stormaskin, typisk fra IBM.

2002_03_11_cobol300_3-11-02-100717557-origDette har vært et problem lenge – jeg har rådet bedrifter til å kvitte seg med kjernesystemene sine, om nødvendig ved å skrive dem helt om, i hvert fall i 20 år. Men de fleste bedrifter har ikke gjort det, og nå begynner problemet å nå kritiske dimensjoner. Helt fra slutten av 90-tallet har unge mennesker vegret seg for å lære seg et 30 år gammelt programmeringsspråk som bare brukes til kjedelige bakgrunnsprogrammer. Mange bedrifter løste dette ved å outsource vedlikehold og oppdatering til selskaper i andre land, for det meste India. Tilbake i bedriften er det færre og færre, om noen, som egentlig forstår hvordan de gamle systemene fungerer.

Da får man en situasjon der all innovasjon skjer i ulike typer småsystemer som ligger rundt og interagerer med det gamle kjernesystemet, uten at man gjør noe med selve kjernen. Det går greit så lenge forretningen man driver er stabil, men med økende konkurranse fra digitale bedrifter som ikke har en mange millioners møllestein på maskinrommet kan det blir farlig. Jeg hørt om bedrifter som ikke tør slå av sine systemer av redsel for at de ikke kommer til å starte igjen, og systemer der den eneste tilgangen man har til dataene er gjennom brukergrensesnittet – slik at skal man hente dataene ut, er man nødt til å gå inn på hver eneste rad i databasen og kopiere den ut manuelt (en grunn til at RPA er så populært.)

Mange bedrifter med flotte websider er rett og slett slott bygget på svært råtne fundamenter, en slags informatikkens permafrost som ingen tør å tine opp av redsel for hva som kommer til å stige opp, av metangass og annet. Det man burde gjøre, naturligvis, er å starte helt på nytt igjen, men siden man har hundre- eller kanskje tusenvis av systemer og APIer og innganger som bruker det gamle monsteret i kjelleren, er det ingen som engang tør å tenke tanken. For ikke å snakke om at det blir dyrt, og synliggjør mange års manglende vedlikehold og underinvestering.

Jeg tipper at en hel del banker, for eksempel, kommer til å få det morsomt når PSD2 kommer og de blir nødt til å slippe til andre aktører inn mot sine systemer. Da vil antallet transaksjoner mangedobles og de gamle systemene ganske enkelt ikke henge med, uansett hvor mange servere man kjøper. Vi går spennende tider i møte, og jeg er i grunnen litt forundret at ikke flere styrer og investorer begynner å stille kritiske spørsmål til firmaers informasjonsarkitektur og tekniske plattform.

Kanskje på tide å begynne? Tips: Hvis det fortsatt finnes COBOL i organisasjonen, er det grunn til bekymring, i alle fall hvis det tar tid å gjøre endringer og man fremdeles har pensjonister igjen som konsulenter i IT-avdelingen…

Digital redsel – hva gjør man med det?

internet-thinkstock-179504580Jeg har et mulig prosjekt jeg har tenkt endel på. Jeg lagt merke til at mange mennesker er redde for digitalisering (eller for teknologi, eller matematikk, men la det ligge denne gangen). Særlig ledere er redde for digitalisering, og stritter i mot, ikke fordi de ikke forstår teknologien (skjønt det er et element) men fordi de er usikre på hvordan den påvirker deres egen rolle og situasjon. Folk som arbeider i store organisasjoner er også nervøse for ny teknologi, om ikke annet så fordi mange norske ledere ser ut til å tro at mer digitalisering ensidig betyr færre medarbeidere (eller mindre budsjetter.)

Jeg er ikke redd for digitalisering, men så har jeg jo også pustet digitalisering (og fått betalt for å digitalisere ting) siden sånn rundt omkring 1983. Og min strategi for å overbevise folk om å blir mer digitale har vært nokså klar: Å påvise muligheter og trusler og overbevise folk med vektige og rasjonelle (og nokså spissformulerte) argumenter om hvor fremtiden ligger og hvor fort man bør se å komme seg dit.

Det var greit så lenge jeg var ung og ildslukende, men nå er jeg 56 og har oppdaget at mange av de som er redde for digitalisering er betydelig yngre enn meg selv. Rollen som arrogant bråkmaker er grei nok, men jeg begynner å lure på om ikke litt mer folkeopplysning er tingen. Rasisme og innvandrerfrykt har en tendens til å forsvinne om man har positive opplevelser og bedre kunnskaper. Kanskje det er slik med digitalisering også?

En annen sak er at jeg har lyst til å begynne med et nytt medium, nemlig video. Ikke bare standup foran en tavle, som jeg har gjort masse av, men et fastere format med struktur og innhold og gjentatt over en viss periode. Det gir muligheten til å kjøpe seg en masse kul teknologi og dessuten lære nye programmer. Dessuten gir det kanskje muligheten til å komme i kontakt med et nytt publikum, nemlig de som ikke er så sikre på dette med digitalisering og kanskje trenger en bedre forklaring, gjerne med eksempler, på hva det er og hvorfor man ikke trenger å være så redd for det. Norge har mangel på arbeidskraft og et knallsterk (relativt, i hvert fall) sikkerhetsnett. Vi har ikke noe å være redd for, det er nok å gjøre og nok å tjene penger på selv om robotene kommer og tar rutinejobbene.

I alle fall, planen er å begynne å eksperimentere med videoprogrammer, kanskje en serie, kanskje noe mer formelt, rundt spørsmålet….

«Hvordan kan jeg bli litt mer digital?»

…for de som ikke føler seg så veldig digitale. Tanken er ikke bare å forklare teknologi, men også gi folk et perspektiv på hva de bør mene om den (og noen tips på veien).

Og dermed mitt spørsmål til de som måtte ha ideer der ute:

  1. Hva er folk mest redd for og vil ha forklaring (og kanskje litt trøst) om?
  2. Hva synes folk er vanskelig å gjøre med teknologi, og trenger hjelp med?

(Blockchain og Big Data og sikkerhet og kryptering og batteritid er jo selvsagte, men mer spesifikt: Hva funker og hva funker ikke, hva vil man ha hjelp til å bli bedre på?)

Noen tanker?*

*Ja, jeg er klar over at denne bloggens lesere er gode på det digitale. Men hva får dere spørsmål om?

Rask teknologiutvikling innen Big Data

DataRobot-screenFor noen uker siden var jeg i London for å lære meg DataRobot, et verktøy som automatiserer store deler av jobben rundt avansert dataanalyse. Det eneste DataRobot (og lignende verktøy) trenger, er masse data i et rad-og-kolonneformat (Excel, CSV, SQL, Hadoop, etc), og dermed kan man bare sette i gang: Dataene leses inn, hver kolonne tolkes og kategoriseres (dvs. som tekst, numeriske data, kategorier, boolsk, etc.). Deretter spør DataRobot hva som skal være den uavhengige variabelen (det vil si, hva det er man skal prøve å predikere), hva det er som skal være grunnlag for å vurdere hvilken modell som er best (forklart varians, logloss, etc.). Så kan man trykke Start og dermed setter DataRobot i gang og kjører alle analyser den vet om. Modellene listes opp med de som gir best resultat på toppen, og deretter er det bare å sette i gang og forbedre dem – for eksempel ved å finne mer data, kombinerer datapunkter, og så videre.

Med andre ord, masse av det man tidligere måtte ha spesialister til å gjøre, kan man nå gjøre selv.

Som min kollega Chandler Johnson sa: For fire-fem år siden måtte han programmere opp hver metode i Python. Så kom SciKit-Learn og andre programmeringsbiblioteker (XGBoost, RTensorFlow, Wowpal Wabbit) som gjorde at man bare kunne hente inn de metodene man ville bruke. Nå kommer grafiske verktøy som DataRobot, som velger ut og tester modeller for deg – og fjerner mye av behovet for programmering i det hele tatt. Selskapet reklamerer med at man kan redusere antallet data scientists man trenger, og det er jo gode nyheter der man må lete med lys og lykte og bruke ganske mye penger for å finne folk som kan gjøre slikt.

En stor del av jobben man trenger data scientists til, er å gjøre dataene klar for analyse. De fleste bedrifter vet at de har endel data, men når man først skal bruke dem, finner man kjapt at de har masse feil, er mangelfulle, og ofte ikke har de variablene man trodde man hadde. (For en liste av mange vanlige feil, se The Quartz Guide to Bad Data.) Også her begynner det å komme gode verktøy som reduserer behovet for programmering, som for eksempel Alteryx. Som en av våre studenter fra Analytics for Strategic Management sa: «DataRobot is soooo September…!

(Og skulle du ha lyst til å lære mer om dette: Sjekk ut dette kurset, 5-7 desember.)

Refleksjoner fra et digitaliseringskurs

IMG_3628

Den siste uken har jeg tilbragt i Antibes og Sophia Antipolis, der jeg har holdt et firedagers kurs om Digitalisering for vekst og innovasjon sammen med Ragnvald Sannes. De femten deltakerne har kommet for det meste fra store og mellomstore norske bedrifter (forsikring, bank, matvarer, energi, teknologi) med et islett av offentlig aktivitet (kommune, regionsutbygging). Tanken er at kurset ikke bare skal være et kurs, men et møtested for folk som er opptatt av digitalisering, ønsker seg mer kunnskap, men kanskje først og fremst trenger noen å sparre med for å finne ut av hvordan man skal forholde seg til digitalisering, både som bedrift og som leder.

Les videre

Pensum for alle om teknologi og menneskets fremtid

Det er mye å si om Stephen Fry, men denne videoen, av et foredrag ved Nokia Bell Labs, der han forklarer blant annet hvor datateknologien kommer fra, hva eksponensiell vekst egentlig betyr, hvordan vi skal tenk om hva som skjer med maskiner og mennesker. Tanken streifer meg: Kanskje “the apogee, the acme, the summit of human intelligence” er best illustrert av Stephen Fry selv?

(Det mest imponerende, naturligvis, er når han får spørsmål etter foredraget og setter igang flere nye forelesninger om teknologihistorie og teknologiutvikling.)

Kortfattet: Big Data og analytics

DFDDODData og dataanalyse blir mer og mer viktig for mange bransjer og organisasjoner. Er du interessert i dataanalyse og hva det kan gjøre med din bedrift? Velkommen til et tredagers seminar (executive short program) på BI med tittelen: Decisions from Data: Driving an Organization with Analytics. Datoene er 5-7 desember i år, og kurset har vokst ut som en kortversjon av våre executive-kurs Analytics for Strategic Management, som har blitt meget populære og er fulltegnet. (Sjekk denne listen for en smakebit av hva studentene på disse programmene holder på med.)

Seminaret er beregnet på ledere som er nysgjerrig på stordata og dataanalyse og ønsker seg en innføring, uten å måtte ta et fullt kurs om emnet. Vi kommer til å snakke om og vise ulike former for dataanalyse, diskutere de viktigste utfordringene organisasjoner har med å forholde seg både til data og til dataanalytikere – og naturligvis gi masse eksempler på hvordan man kan bruke dataanalyse til å styrke sin konkurransekraft. Det blir ikke mye teknologi, men vi skal ta og føle litt på noen verktøy også, bare for å vite litt om hva som er mulig og hva slags arbeid vi egentlig ber disse dataekspertene om å ta på seg.

Presentasjoner og diskusjon går på engelsk – siden, vel, de beste foreleserne vi har på dette (Chandler Johnson og Alessandra Luzzi) er fra henholdsvis USA og Italia, og dermed blir betydelig mer presise enn om de skulle snakke norsk. Selv henger jeg med så godt jeg kan…

Velkommen til datarevolusjonen!

Verdens kuleste vervepremie

top-girlriding-mobile-1[I avdelingen for ikke-faglige innlegg…] Som så mange andre nordmenn har jeg en Tesla (det er jo omtrent som å ha en Volvo stasjonsvogn her til lands) og er meget fornøyd med den. Elon Musk ble rik på Paypal og har importert endel forretningskonsepter derfra, deriblant et anbefalelsesprogram: Hvis en som allerede har en Tesla anbefaler deg (min kode er her, hint hint) får du 8000 kroner i rabatt på en ny Tesla og dessuten gratis superlading så lenge du eier bilen. Og det er jo greit å ta med seg.

Det er jo hyggelig å gi bort noe slikt, men hva får den som anbefaler noen i vervepremie? Det visste ikke jeg, men nå er det noen som har bestilt en Tesla på min anbefaling, og dermed får jeg en Tesla elektrisk lekebil. Den ser ut som en Tesla, har bagasjerom foran, lading, og tilkobling for mobiltelefon (for musikk).

Akk ja, man skulle vært 4 år igjen. Og vi som skal bli besteforeldre om noen måneder…

 

Magma om digitalisering

econa-logo-magma-bannerMagma, utgitt av Econa (tidligere (veldig mye tidligere, faktisk) Siviløkonomforeningen), har et spesialnummer om digitalisering, der Ragnvald Sannes og jeg har vært fagredaktører. Hele greia finnes på websiden deres, men her er i alle fall Ragnvalds og min innledning, som summerer opp mye av innholdet, og dessuten innholdsfortegnelsen for de av artiklene som omhandler temaet:

Takk til bidragsyterne, Charlotte Hem (redaktør), og ikke minst min medredaktør Ragnvald som nok har gjort mesteparten av jobben denne gangen, må jeg innrømme.

Digitalisering i helse og omsorg – hva venter vi på?

Om etpar dager skal jeg ha et kort innlegg med tittelen «Digitalisering i helse og omsorg – hva venter vi på?» på Healthworld 2017, en konferanse arrangert av Computerworld Norge på Oslo Kongressenter. Vanligvis lager jeg presentasjoner på egenhånd, men her har jeg tenkt å legge ut i alle fall noen begynnende tanker om hva jeg skal si, i tilfelle noen har kommentarer eller opplysninger som kan gjøre budskapet mer korrekt og muligens litt mer troverdig.

Det er en kilde til stadig forundring for meg at digitaliseringen av norsk helsevesen går så tregt, og møter så mye motstand. Da innføringen av elektronisk resept kom, var det masse frem og tilbake fra apotekenes side om hvordan dette kom til å føre til at de ville miste kontakten med pasientene sine, mindre sjanse til å drive veiledning, og så videre. Nå er elektronisk resept innført, og med den kan man gå til hvilket som helst apotek (tenk det – mulig det hadde noe med protestene å gjøre) og øyeblikkelig få det man trenger. I tillegg kan man ikke lenger gå fra lege til lege og/eller fra apotek til apotek for å få mer av den medisinen man liker å misbruke – og i tillegg kommer det (usikker på i hvilken grad det er implementert) alarmer i tilfelle vi opererer med medisiner som har uønskede interaksjoner.

Og det er jo kjempefint. I kjølvannet vil vi få mer effektive apoteker (fremdeles skrives det masse tekst når man skal ha medisinen sin, men noe skal jo disse folkene bak disken gjøre). I tillegg tillates Internett-apoteker å selge reseptbelagte medisiner, og dermed kan kronikeres hverdag bli en tanke lettere også.

Alt i alt aldeles utmerket.

Men hvorfor i all verden måtte det ta så lang tid?

Jeg har en rekke hypoteser, men her er noen av dem:

Organisasjonsstrukturen hindrer innovasjon
En ting er at vi har fire helseforetak uten at noen kan gi meg en god grunn hvorfor, men bare vent til vi beveger oss utenfor det igjen: Nødhjelpstjenestene i Norge hører inn under tre departementer (minst) og (minst) tre strukturer: Helseforetakene (ambulanse), kommunene (brannvesen) og politidistriktene. Resultater er svak koordinering og lange responstider. Når du ringer 110, 112 eller 113 i Norge kan du komme til 48 ulike steder. Kun to av dem (Brann og ambulanse i Trondheim, der de har hatt Smarthelp [Merk: Jeg sitter i styret til dette firmaet.] siden høsten 2014) vet øyeblikkelig hvor du er, resten må spørre (og håpe at du a) kan snakke, helst norsk, og b) vet hvor du er.)

Sammenslåing av alarmsentraler og samarbeid med andre instanser (Luftambulansen, Folkehjelpen, etc.) treneres, tross at Stortingsvedtak foreligger. (Eller for å si det litt mer direkte: Hvorfor i all verden har politidirektøren fremdeles jobb?) Så lenge ansvaret for helhetlig ytelse ikke er samlet, er det i manges interesse å trenere digitalisering, siden ingen representerer pasientene, som dessuten hindres i å vite hvor hvor ille situasjonen egentlig er.

Anskaffelsesprosessene hindrer innovasjon
I Norge legges ting ut på anbud, noe som fører til a) at alt må spesifiseres på forhånd, helst av folk som ikke har dyp teknologikunnskap men er svært redde for å gjøre feil, b) at kostnadene går i været siden alle eventualiteter må dekkes og antallet kokker stiger over alle støvleskaft, og c) alle fokuserer på «leveransen» av et eller annet produkt fremfor hvordan man skal jobbe i fremtiden. Riktignok har Innovasjon Norge fått presset gjennom noe som kalles «innovasjonspartnerskap«, men det er ikke stort mer enn at man flytter spesifikasjonen enda lenger frem. Det er lite rom for «design thinking» innen norsk anskaffelsesreglement, og når det er det – som for eksempel innen det som tidligere het OFU-ordningen – skjer det som regel at teknologien leveres, men så blir den ikke kjøpt og brukt, selv om den virker.

Man skal lage komplette løsninger med en gang
I korthet (se denne bloggposten for mer): I helsevesenet har man det med å forlange at et nytt system skal håndtere alle muligheter (og alle kombinasjoner av muligheter) fra begynnelsen av, heller enn å gjøre som Facebook gjør: På spørsmål om man er i forhold, er svarmulighetene «Ja», «Nei», og «Det er komplisert».

Ved først å lage et enkelt system som dekker de fleste (enkle) situasjoner, og deretter bygge det ut, lærer man mens man går, bruker ikke for mye penger før man har resultater, og setter dessuten i gang en forenklingsprosess, slik at man kanskje ikke trenger å forholde seg til de mest sjeldne kombinasjonene i det hele tatt.

Innovasjon er sett på som noe som skal drives på siden av organisasjonene
Alle nye systemer i det offentlige starter som et prosjekt, med en gang. Men skal innovasjon bli en mer permanent prosess, kan den ikke eksistere på siden av en eksisterende organisasjon – i stedet må man sette seg klare mål (formulert ut fra hva kunden eller brukeren trenger, ikke ut fra hva organisasjonen ønsker) og deretter implementere dem gradvis, først med enkle løsninger (se over). Altinn I ble startet av Skattedirektoratet og Brønnøysund, basert på en ide om en forhåndsutfylt selvangivelse med toveis kommunikasjon, og finansiert over drift – alt for å unngå elefantsyke. Altinn II ble gjort som et tradisjonelt prosjekt med anbud og kravspesifikasjoner, og oppnådde ikke i nærheten av de samme effekter (men brukte masse ressurser.)

Man tillater at parallelle systemer med samme funksjonalitet bygges opp.
Kan noen besvare dette spørsmålet, som jeg har stilt en rekke ganger i mange fora, for meg: Hva er det Digipost gir meg som jeg ikke allerede har i Altinn?

Conway’s lov (en av de digitale nerdelovene) sier at systemer følger organisasjonsgrenser, og for meg er Digiposts fremste målsetting at Posten skal ha noe å gjøre etter at brevposten er borte. At man allerede har en sikker kanal i Altinn (som riktignok ser litt gammeldags ut og trenger en oppfriskning). Altinn tillater allerede utsenderne å bare bruke Altinn, hvorfor i all verden skal jeg som forbruker tvinges til å forholde meg til to systemer bare fordi offentlige etater er sjalu på Skattedirektoratet og Brønnøysund og helst vil ha sin egen IT-avdeling?

Man tenker ikke systemer som distribuerer informasjon til brukeren og lar dem tenke selv
En gang tilbrakte jeg en hel dag med å sitte i gangen på et av våre store sykeshus og vente på at noe skulle skje. Etterhvert begynte jeg å notere meg hva sykepleierne gjorde, og fant ut at svært mye – kanskje mesteparten – av tiden deres gikk med til å a) finne ut hvor noe var («Hvor er legen?») og b) finne ut om noe hadde skjedd («Har pasienten fått middag?»). Tenk om vi satte en mobilsender på hver lege og alle gikk rundt med en mobil terminal der man registrerte (f.eks. ved strekkoder) at ting hadde skjedd. Da kunne sykepleieren se at legen er i operasjonssalen eller på vei tilbake fra møte, og legen slipper calling og annet tøys. Medisineringssystemet kan se at pasienten har fått middag og derfor ikke skal ha medisinen før om to timer. Det er på høy tid at vi innfører objektorientert tenking til helsevesenet – det var tross alt Norge som oppfant konseptet.

Et fellesssystem trenger ikke inneholde alt på en gang. Hvis man forteller folk hvor noe er og hva det inneholder, slipper man en masse frem og tilbake. Etterhvert vil noen bygge systemer på toppen av denne informasjonen – og da får man enda mer innovasjon.

Man sammenligner nye løsninger med noe perfekt, ikke med dagens løsning.
Kjernejournal og andre sentrale informasjonslagre er tilgjengelige for alle som har rettmessig tilgang – på en gang. Dette introduserer sikkerhetsrisiki, naturligvis, og en av dem er at noen kan snike seg inn og urettmessig lese din helseinformasjon. Dermed har vi fått noen år med frem og tilbake og mange vektige møter om hvordan man kan gjøre systemet fullstendig sikker. Men da jeg jobbet på Rikshospitalet som 20-åring fulgte papirjournalen pasienten – og lå og fløt i nærheten av pasienten, på nattbord og skrivebord og i posthyller og over alt. Mye leting etter journaler som ingen visste hvor var – og hadde jeg vært interessert, kunne jeg lese så mange journaler jeg ville.

Sikkerheten i sentrale registre er ikke 100% (det er nesten umulig.) Men den er bedre enn den var med papirjournaler, og det er det man må vurdere den etter.

Man ser ikke at verden har endret seg.
Over 90% av nordmenn har smarttelefon, så og si alle har mobildekning, og slik ser det ut. Dermed er en ny plattform etablert, en plattform vi kommer til å ha i lang tid fremover. Men gjett hva som skjer om man foreslår løsninger basert på smarttelefon? Øyeblikkelig kommer spørsmålet: Ja, men hva med de som ikke har mobiltelefon, da? (Alternativt, hva med de som bare har en gammel Nokia?) Svaret er enkelt: A) De dør snart, og b) de har dagens løsning.

Ferdig med det.

…og til slutt:

Informasjonsteknologien er ikke ny. Jeg sendte min første epost i 1985, og jeg var ikke spesielt tidlig ute. Vi har hatt Internett i så og si alle hjem i hvert fall i femten år. iPhone kom for ti år siden. Vi har kunnet bestille taxi via Uber eller Taxifix i flere år allerede – hvorfor i all verden finnes ikke noe tilsvarende for helsevesenet?

Svaret ligger ikke i teknologien, men i de mange faktorene rundt. Felles for dem alle er institusjonalisering: At en organisasjon, som opprettes som et verktøy for å få gjort en jobb, etterhvert får en verdi i seg selv, skapt av de som har en egeninteresse av dens fortsatte eksistens. Som en eller annen sa: «Vi starter med å jobbe for kunden og ender med å jobbe for økonomisjefen.»

I helsevesenet har man ikke engang den økonomiske unnskyldningen. Det er på høy tid at vi skjære gjennom og digitaliserer med billige, raske, og distribuerte sentraliserte løsninger, at vi bannlyser dobbeltarbeid, og at vi slutter med å lage systemer som allerede finnes og er i bruk andre steder, inkludert i andre helseforetak enn ens eget.