IT – drevet av knappe ressurser

(Publisert i Økonomisk Rapport 6/2008)

På lenger sikt er det imidlertid bare en faktor det er virkelig mangel på når det gjelder IT-utviklingen, skriver Espen Andersen, som tar for seg driverne bak IT-utviklingen.

IT – drevet av knappe ressurser

Hvordan vi organiserer vår informasjonsbruk har alltid vært preget av hva slags ressurser det har vært knapphet på til enhver tid. I fremtiden vil vår bruk av datamaskiner se forskjellig ut – og her kan Norge spille en rolle.

Teknologi former organisasjoner. Uten damp, jernbane og kanaler, ingen industrialisering. Uten telefon og heis, intet sentralt hovedkvarter i sentral skyskraper, separat fra produksjonen. Uten hengemapper, ingen memoer (og gjett hva elektronisk post er basert på?)

Hvordan vi organiserer vår teknologi, særlig informasjonsteknologi, er mer preget av hvilke mangler teknologien har enn dens muligheter. I datamaskinens barndom – frem til ca. 1990 – var datamaskiner kostbare og svært begrenset. Prosessering var dyrt, og mye krefter ble brukt til å få så mye nytte ut av hver enkelt datamaskin som mulig. Man fordelte omhyggelig tiden hver bruker kunne ha på hver maskin, til å begynne med ved at folk stod i kø, etter hvert med sentraliserte operativsystemer som delte datakraft ut til brukere etter behov og budsjett.

PCen, mot slutten av 80-tallet, gjorde prosessering billig. Hvis et program ikke gikk raskt nok, ble det stadig oftere mer økonomisk å kjøpe flere datamaskiner enn å bruke tid på å gjøre programmet raskere. Slik er det fremdeles: Mesteparten av datakraften i en PC går ikke til å beregne renter eller formattere tekst eller hva man nå skal bruke programmet til, men å gjøre programmet lett å bruke. Og mesteparten av tiden gjør PCer ingenting – for det meste står de rett og slett og venter på neste tastetrykk eller museklikk.

Da prosessering ble billig, ble kommunikasjon – eller rettere sagt kommunikasjonskapasitet – en kritisk ressurs. Internett er designet rundt denne begrensningen. For svært mye informasjonsbruk er det slik at man har prosesseringskraft på en lokal klient, som en PC eller en mobiltelefon, og informasjon på en sentral server. Mellom klient og server er det et tregt og til tider upålitelig nettverk – og denne trege kommunikasjonskanalen måtte utnyttes så mye som mulig. Det blir viktig å begrense mengden data som måtte suges ned gjennom det tynne nettverkssugerøret – og mye av tankevirksomheten rundt datamaskiner de siste 15 årene har gått med til å definere hva som skulle gjøres lokalt (presentasjon) og hva som skal gjøres sentralt (lagring og til dels prosessering).

Etter hvert som privatpersoners bruk av Internett har finansiert stadig raskere og bedre nettverk, er kommunikasjon i ferd med ikke lenger å være en kritisk ressurs. I de fleste urbaniserte strøk kan nå en privatperson få 100 Mbps via fiberkabler (i hvert fall hvis man er villig til å betale litt skikkelig), og mobilnettverket leverer opptil 3Mbps for en relativt rimelig penge. Man kan laste ned eller se direkte filmer og musikk, sende bilder av seg selv og andre rundt omkring i verden uten vanskelighet og med liten forsinkelse. Det finnes til og med internettsider som lar deg laste opp film fra mobiltelefonen mer eller mindre direkte. Programvareleverandørene har fulgt opp, og leverer i stadig større grad sin funksjonalitet rett over nettet, rett og slett fordi den høye hastigheten tillater det.

Med andre ord, prosessering og kommunikasjon er ikke lenger noe man trenger å tenke mye på. Hva er det da som holder igjen utviklingen, og som man må organisere seg rundt?

På kort sikt ser det ut til å være energi. Datasentre bruker enorme mengder elektrisitet, primært for kjøling. Vi kan løse dette ved å utnytte det faktum at det er mye mindre kostbart å flytte bits (data) enn elektrisitet (der man taper mye effekt i lange kraftlinjer.) Ved å legge datasentre til steder med god tilgang på strøm, fortrinnsvis i kaldt klima slik at behovet for kjøling reduseres, kan man spare energi. Både Microsoft og Google, for eksempel, har bygget et datasenter i Oregon nær en vannkraftverk, og vurderer å bygge tilsvarende sentre på Island.

Fremtidens firma vil ha sine datasentre – for mange av dem, delt med andre bedrifter – i det kalde nord, nær en stor elv eller høy foss. Det slår meg at her bør norske kraft- og industrikommuner på Vestlandet kjenne sin besøkelsestid – noen hundre tusen servere i en gammel industrihall på Vestlandet må da være en glimrende investering, slik bl.a. Helge Skrivervik har tatt til orde for?

Andre knappe faktorer man sliter med er metadata – det å sette ord på informasjon som er lagret i form av video og audio, slik at den blir søkbar . Her er det imidlertid stor utvikling, og mange oppfinnsomme løsninger som crowdsourcing, interpolering mellom informasjonskilder og bedre og bedre automatisert bildetolkning. Andre begrensninger er at Moore’s lov begynner å gå mot slutten etter hvert som informasjonskanalene i prosessorene blir så trange at elektronstrømmene ikke lenger oppfører seg pålitelig, og de begrensninger i prognostisering som ligger i kaotiske systemer, slik som vær og aksjekurser.

På lengre sikt er det imidlertid bare en faktor det er virkelig mangel på: Kunnskap (eller, mer presist, folk som er villig og i stand til å arbeide med informasjonsteknologi). Andelen av smarte folk er stort sett konstant i enhver befolkning, uavhengig av utdanningsnivået. Etterspørselen er økende, og vil fortsette å øke i overskuelig fremtid, for folk som forstår hva som er inne i boksen og kan gjøre noe for å utvikle, ikke bare fikse det. Altså må vi optimalisere vår teknologi rundt tilgjengeligheten på folk som kan utvikle og drive den.

De fleste av de personer som arbeider med å utvikle og optimalisere informasjonsteknologi har liten interesse av å bo i fjerne og kalde deler av verden, uansett hvor god tilgangen på elektrisitet måtte være. Men siden digital informasjon kan flyttes nesten hvor som helst, vil folk som arbeider med dem vil bli plassert på steder som tilbyr det de anser som å være det gode liv, enten det nå vil si Boston eller Bangalore, Silicon Valley eller Silicon Glen. De vil være relativt sentralisert (uansett videokonferanse, det hjelper å sitte tett sammen med mange andre eksperter når du skal utvikle nye ting.) Selv om de sitter i tett grupper (gruppert etter sine kunnskaper mer enn hvor kunder og teknologi er), vil de samarbeide med folk over hele verden. Tidssoner mer enn avstand vil bli noe man vil slite med – i mange tilfelle kommer man til å forholde seg til en felles tidssone, antakelig dominert av amerikansk østkyst. Forfatteren Cory Doctorow har skrevet en roman med tittelen Eastern Standard Tribe, som betegner nettopp denne gruppen mennesker.

Jeg tror mangel på kunnskap vil være med oss for alltid – samtidig som vi flytter tettere til Googles visjon av teknologi som organiserer all informasjon i hele verden, er det fortsatt en lang vei å gå. Menneskelig oppfinnsomhet og variasjon vil sikre at om vi noen gang kommer dit, vil denne teknologien være forskjellig a) svært forskjellig fra hva vi kan forestille seg nå, og b) vil ta mye lenger tid å utvikle og enda lenger tid for å bli tatt i bruk enn vi tror. Det er en god mulighet for at den vil konstrueres på dårlig engelsk, men bli brukt med automatisk oversettelse et eller annet sted mellom teknologi og bruker.

Og godt er det, for jeg tror teknologi som fungerer smertefritt er et problem i seg selv. Som Jonathan Zittrain sa på en konferanse nylig: "På randen av kaos ligger suburbia" – en ren, velfungerende teknologi, som fordi den skal fungere for de mange blir tett kontrollert av de få, som ønsker å forhindre at de smarte videreutvikler den. Menneskelig oppfinnsomhet trives under imperfekte omstendigheter, der feil kan bli utnyttet eller overvunnet, og hvor det ligger forretningsmuligheter for de som har energi og initiativ til å søke dem.

Måtte det alltid finnes knappe ressurser og mangelfull infrastruktur slik at vi sikrer fortsatt innovasjon!

Jeg vil til Bergen, vil til Bergen med det samme….

Det har vært litt opphold i bloggingen her i det siste, noe som skyldes dårlig tid og mange jern i ilden. Sitter akkurat og forbereder et foredrag jeg skal holde i Bergen, det er andre gang jeg skal dit denne uken. Mandag holdt jeg foredrag for kunder av EDB Business Partner sammen med Helge Skrivervik, som er ene halvparten av MyMayday.com, bor i Son, og ser ut til å ha fått til en digital livsstil. Han snakket om overgangen fra "en klient for alle tjenester" til "en tjeneste for alle klienter" og jeg fulgte opp med et foredrag kalt "Slipp brukerne fri" basert på denne artikkelen.

I dag er det NHO Hordaland’s årskonferanse som står for tur, med et foredrag kalt "Frykten for de beste", blant annet basert på denne og denne kronikken.

Forhåpentligvis blir det fint vær over fjellet…

Hva skjedde egentlig i OOXML vs. ODF-diskusjonen?

Det ser ut til at beslutningen om at Norge skulle stemme ja til OOXML som ISO-standard ble fattet på en svært merkelig måte – tvers i mot teknisk ekspertise og uten snev av demokrati.

Mitt spørsmål er: Hvem er denne direktøren fra Standard Norge – og kan vedkommende vennligst komme med en kommentar til denne artikkelen? Det finnes riktignok en kommentar her, men den er nokså lite utfyllende og forklarer f.eks. ikke hvorfor prosessen er så vinklet mot aksept. Heller ikke kommentaren om at en stor andel likelydende brev skal tillegges samme vekt som mer begrunnede svar hører hjemme i en standarddiskusjon – da kan man like gjerne kutte hele komitediskusjonen og ha en nasjonal avstemning.

Dette ser rett og slett ikke bra ut, uansett hva man måtte mene om filformatet i seg selv. For eksempel er det å insistere på en konsensus – at alle skal være enige – i praksis en fremgangsmåte som fører til at den som eier og foreslår standarden har en slags vetorett (eller i alle fall retten til å presse beslutningen fra komite til ledelse.)

Dette krever en mer utfyllende forklaring. Og hvorfor i all verden opptrer vedkommende direktør anonymt?

(Via Slashdot.)

Det papirløse kontoret, igjen

Jeg skriver rett som det er for Økonomisk Rapport, som faktisk etterspør litt lengre fakta- og diskusjonsartikler fra fagfolk som Torger Reve, Hans Henrik Ramm, Tor Wallin Andreassen, og altså undertegnede. De legger dessverre ikke ut disse artiklene på web, men her er mitt siste missiv (og illustrasjonsbildet er ikke fra mitt kontor, men fra et firma som konsulterer innen kontoropprydding):

Det papirløse kontoret – på tide å komme i gang.

Espen Andersen, april 2008

Så lenge jeg har jobbet med å få folk til å bruke IT, har jeg fått høre at ”Vi vil få det papirløse toalett før vi får det papirløse kontor,” etterfulgt av en tørr latter og litt vifting med et papir.

Men det papirløse kontor er på vei: De fleste kontorister i dag leser langt flere ord på skjermen enn på papir, nettavisene har flere lesere (og bedre inntjening) enn papiravisene, og bestemødre og barnebarn kommuniserer i dag over e-post og SMS. Likevel holder papiret stand, etter hvert mer som irritasjonsmoment enn nyttegjenstand.

Hva skal til for helt å bli kvitt papiret? For å kunne analysere det, må vi bli litt mer spesifikke på hva vi bruker papir til.

Informasjonslagring

Papir brukes som lagringsmedium (for informasjon) når det har sin plass i et arkiv, der man kan gå og trekke det ut igjen. Denne bruken av papir er i ferd med å forsvinne – papirarkiver er dyre å vedlikeholde, lite søkbare, og vanskelige å distribuere over distanser. Allerede nå er de fleste slike arkiver borte (eller de eksisterer som reserver for elektroniske databaser), men om ti år er det ingen større informasjonsbaserte papirarkiver igjen (bortsett fra de som har legale dokumenter, se neste punkt). Det vil billige harddisker og kjappe skannere sørge for.

Legal lagring

Papir har i dag en legal funksjon: Vi skriver under på papir, og lagrer alle mulige former for kontrakter og attester. Til og med pengesedler er egentlig en papirbasert kontrakt. Papirets funksjon er her at det bare finnes et ekte eksemplar, som er vanskelig å forfalske. Man kan ha elektroniske kontrakter og signaturer, men de er fremdeles lite innarbeidet og det finnes store strukturer i samfunnet (advokater, departementer) som endrer seg langsomt. Store deler av samfunnet har også interesse av at papiret finnes der: For eksempel er det masse papir innen fortolling på konsumentnivå fordi treghet i dette leddet beskytter innenlandske vareprodusenter. Et annet eksempel er tinglysning av lånedokumenter, som for lengst burde vært helelektronisk og dermed gjort det lettere å flytte lån.

Papir som legalt medium vil bare gradvis forsvinne – vi vil fortsatt ha pengesedler, for eksempel, men de vil bli unntaket og ikke regelen. En kombinasjon av juridisk bindende offisielle arkiver (Minside, Altinn), reduksjon av behov for kontrakter (fjernet skillemynt, økte grenser for tollfri import), og pionerarbeid av ”private” aktører (som for eksempel Norsk Tippings spillekort) gjør at papir som legal informasjonsbærer blir sterkt redusert. I utlandet er man i enkelte henseende foran Norge – i USA har man allerede i mange år skannet dokumenter og deretter makulert dem – da er det den elektroniske kopien som gjelder.

Kommunikasjon

Papir brukes til å kommunisere i dag – bare kikk i postkassen din. Også dette er i ferd med å forsvinne: Flere og flere leser aviser på nett, vi kommuniserer elektronisk med venner og kolleger, og finner frem til nye produkter ved å søke elektronisk. Mesteparten av det Posten leverer er ting du ikke har bedt om og ikke vil ha. Fremdeles deler vi ut telefonkataloger og uadressert reklame, men nå først og fremst fordi de som har den jobben tviholder på den. Igjen – om ti år er det ikke mye igjen av dette.

Fremvisning

Papir som fremvisningsmedium er når man skriver ut dokumenter på papir fordi det er en mer behagelig enn på en skjerm. Også dette er langsomt i ferd med å forsvinne – store og gode flatskjermer er billige, og det er vanligere å ha minst to store skjermer på skrivebordet. Studier viser at flere skjermer kan øke produktiviteten. Og siden dokumenter mer og mer inneholder elementer som ikke kan sees på papir, som video- og lydsnutter eller lenker til andre dokumenter, vil de måtte leses på skjerm.

I tillegg er utskrifter både dyre og lite miljøvennlige – jeg ser stadig flere e-poster med fast undertekst ”tenk på miljøet før du skriver ut”. Om fem år tipper jeg det ikke er mange som skriver ut dokumenter for å lese dem (men se neste punkt).

Portabilitet

Papir er deilig portabelt. En bok, en avis eller en utskrift av et jobbdokument kan man ta med seg, lese på bussen, skrive på, kaste når man er ferdig. En notisbok er lett å bære og lett å bruke. Selv om det i dag finnes datateknologi som tillater dette (jeg har brukt en datamaskin som lar meg skrive på skjermen med en elektronisk penn siden 2002) er den foreløpig for dyr, for tungvint og har for dårlig batterikapasitet til at den er praktisk.

Men det kommer, dels gjennom bedre mobilteknologi, dels ved at det blir lettere å få tak i informasjon elektronisk. Har du en elektronisk notisbok, kan du klippe ting sammen og slå ting opp mens du noterer.

Her kan skoleverket gå foran: Hvis de bare får sjansen, vil de fleste skoleelever ha lærebøkene og notatene sine på iPods eller mobiltelefoner i løpet av kort tid. Det kommer ikke til å stå på elevene, men på en forlagsbransje som er like bakstreversk som plateselskapene.

Statussymbol

Papir gir status. Tykke permer på kontoret vitner om orden og produktivitet. Mange bøker i stuen og på kontoret vitner om dannelse og ekspertise. Men også dette endres. Folk leser mer pocketbøker og legger dem bare igjen etter seg. En gang var et stort leksikon i skinnbind status, nå er det bare Fritt Ord som synes dette har noe for seg. Bare følg med på IKEA-katalogene – færre bøker i hyllene, heller en stilig Macintosh i stuen. Perfekt for små og stadig mindre leiligheter.

Metafor

Gutenbergs første bibel ser ikke ut som en bok vi leser i dag. Den ser ut som en billigversjon av en håndkalligrafert bibel, fordi det var slik bøker skulle se ut den gangen. Noen hundre år senere hadde bokformatet utviklet seg til noe flere kunne lese, og som det var mer effektivt å trykke.

På samme måte er det med papir og digital teknologi: Lenge etter at papiret er borte, beholder vi det som metafor. Vi produserer dokumenter og sender dem til hverandre, skriver artikler, har skjermer som ser ut som skrivebord med papirkurv i hjørnet.

Det er først når vi slipper papirmetaforen vi virkelig kan begynne å utnytte teknologien. E-post, for eksempel, er ineffektivt fordi det ikke er annet enn automatiserte memoer, men
har den fordelen at folk oppvokst i en papirverden skjønner hva som skjer. Ungdommen, derimot, har sluppet papir som metafor og kommuniserer gjennom delte personlige arbeidsområder (som Facebook), delte dokumenter (wikier) og raske skriftmedier (chat), uten å føle trang til papir. De forlanger samme type verktøy når de begynner på jobb, noe som gjør at store amerikanske selskaper nå eksperimenterer med interne Facebooks, Twitter, wikier og chat. Vi litt eldre skriver blogger

Tenk deg om – hvor mye av den tiden du bruker på å lage en rapport går med til å tilpasse avsnitt, overskrifter og illustrasjoner til et papirformat? Hvorpå du sender den elektronisk til kolleger som kanskje ikke skriver den ut…

På tide å slutte. Også denne artikkelen er begrenset av at den skal på papir. Ikke kan jeg legge inn lenker til andre artikler eller en videosnutt eller to. Økonomisk Rapport har ikke så strenge begrensninger på hva jeg skriver, men hvis de hadde hatt det, kunne det tenkes at jeg hadde måttet slutte midt i en setn

Google slipper brukerne fri

Dette intervjuet med Doug Merrill, CIO i Google, blir heftig kommentert rundt omkring i bloggosfæren, også av min gode kollega Vaughan Merlyn. Jeg synes intervjuet er meget interessant ut fra hva jeg skrev i Digi i januar, særlig denne passusen om sikkerhet:

The traditional security model is to try to tightly lock down endpoints [like computers and smartphones themselves], and it makes people sleep better at night, but it doesn’t actually give them security. We put security into the infrastructure. We have antivirus and antispyware running on people’s machines, but we also have those things on our mail server. We have programs in our infrastructure to watch for strange behavior. This means I don’t have to worry about the endpoint as much. The traditional security model didn’t really work. We had to find a new one.

Nettopp. Det er selvfølgelig slik at Googles gjennomsnittsansatte har enorm peiling på teknologi (som regel en doktorgrad i comp.sci) men allikevel – slipper man brukerne fri, er det fare for at de finner på nye ting, koster mer, og av og til krongler ting til for IT-avdelingen. Alt sammen ting man ikke skal gjøre, medmindre man altså konkurrerer basert på kunnskap….. 

Sommerskolekaos II

Oslo byEn liten oppdatering på saken om sommerskolepåmeldingen som ikke gikk så bra: Jeg har nå snakket med en av leverandørene, og dette ser ut til å ha vært en kombinasjon av et DoS-angrep (40 000 likelydende forespørsler fra en IP-adresse akkurat da påmeldingen begynte) og en siste-minutt-endring som gjorde noe med det filteret som skal stoppe slikt. En faktor kan ha vært at man endret krypteringsmetoden to dager før påmeldingen startet, og ikke fikk kjørt skalatester med den nye (og mer ressurskrevende) krypteringen.

Tingenes iboende finurlighet, med andre ord. Et eksempel på at feil sjelden skyldes en ting, og heller sammenfall av omstendigheter – "normal accidents". For en virkelig tour de force om denne typen feil, se artikkelen "The lessons of ValuJet 592".

Sommerskolekaos

Oslo Kommune byvåpen"Sommerskolen i Oslo" er et prisverdig og populært tiltak som Oslo Kommune har, der barn kan være med på ulike progammer (fra "programmering av nanoroboter" til "fransk og svømming") i sommerferien. Datter nummer tre var med på "journalistikk" i fjor og ville ta "fransk for viderekomne" i år. Påmeldingen er først til mølla, via Internett, telefon eller faks, og fru Andersen var klar ved hjemmePC-en. Websiden gikk øyeblikkelig ned, og hun ringte meg (på BI) for å se om jeg kunne komme inn.

Etter mange forsøk med mye rare feilmeldinger (og en innsendt fax med påmelding) kom hun gjennom, fikk påmeldt datter nr. 3, og fikk så en bekreftelsesskjerm med en helt annen persons innlogging – og en liste med navn på barn og hvilke kurs de skulle meldes på.

Så kom det etterhvert en epost med beskjed om at hele påmeldingen var annullert. Over 3000 mennesker hadde forsøkt å melde på sine barn samtidig, og det klarte ikke systemet (som forøvrig er laget av en navnløs underleverandør). I en slik situasjon forstår man jo at utdanningsetaten annulerer hele greia og forsøker igjen. (Her er Østlandssendingens versjon.)

De samfunnsøkonomiske kostnadene ved denne fadesen er interessante. Min kone brukte to timer, jeg ca. en time, på å forsøke å få dette til. 3000 forsøk, la oss si en time på hver, er sånn omtrent to hele årsverk tapt.

IT har konsekvenser, med andre ord. Og 3000 samtidige påmeldinger er faktisk ikke voldsomt mye, så her har underleverandøren rett og slett gjort svært dårlig dimensjonering. Og mens vi er igang – med en maksrate på 1200 påmeldinger i minuttet kan teoretisk sett alle plassene forsvinne etter akkurat 5 minutter. Ikke rart foreldre hiver seg på!

Oppdatering 14. mars: Her er forklaringen.

ODF, Abelia, og Econ

Jeg lurte på om det skulle være nødvendig å analysere Econ’s bestillingsverk (les mer hos Eirik) som hevder at merkostnaden ved et filformat (ODF) fremfor et annet (OOXML) skulle komme opp i 778mnok.

Gisle HannemyrMen Gisle Hannemyr har allerede gjort jobben og vel så det.

En liten detalj: Hvis Microsoft går over til ODF selv, så forsvinner kostnaden for kundene (som blir fornøyd), dermed blir EU-kommisjonen fornøyd, dermed kan politikere og administratorer fortsette å bruke Microsoft-produkter uten problemer. I stedet velger man å forsøke å presse gjennom et format man kan dominere.

Jeg skjønner det ikke. Jeg kjenner og har utmerkede samarbeid med mange mennesker som jobber i Microsoft – de er dyktige og interessert i teknologi og teknologiutvikling, mange har et oppriktig ønske om å spre kunnskap og innovasjon både i Norge og andre steder. Og så holder man på med ting som dette i stedet for ganske enkelt å delta i standardsetting på en kjapp og grei måte så alle kan komme seg videre og faktisk utnytte teknologien. Det er ikke uvanlig at høyrehånden ikke vet hva venstrehånden gjør i store firma, men dette synes jeg er i overkant.

Vi går i retning av tjenestebasert teknologi, noe til og med Nick Carr har fått med seg, og da blir interoperabilitet og stabile standarder essensielt. Den eneste unnskyldningen for å knytte teknologier tett opp mot hverandre – helintegrere – er fordi man oppnår bedre ytelse eller funksjonalitet som ikke er mulig på annen måte. Over tid vinner alltid åpne og modulariserte løsninger (inntil de blir så standardisert at de selges som enkeltenheter.)

I en slik verden er det ikke plass for proprietære formater, med mindre de er vesentlig bedre enn de åpne. Og jeg har ikke sett noen overbevisende analyse som sier at OOXML kan gjøre mange ting som ODF ikke kan. Noen som har en god sammenligning?

Software 2008 liveblog

Sammen med Ragnvald Sannes sitter jeg akkurat nå og leder en konferanse om "Trender innen IT" for Dataforeningen. Her er noen notater gjennom dagen – skikkelig "liveblogging". Planen er å ha foredrag, deretter kjøre en liten videosnutt for å løse opp litt, og så er det tid for spørsmål.

Morten ThorkildsenFørstemann ut er Morten Thorkildsen, Adm Dir for IBM Norge, og han snakker om fire trender:

  • Globalisering: Dette gir nye muligheter, særlig fordi det er så vanskelig å rekruttere folk, særlig innenfor tradisjonell IT. Samtidig blir masse kompetanse tilgjengelig i "emerging markets", som gjør at man kan få tak i folk og dessuten øke produktiviteten ved strategier som "follow the sun", gjenbruk av løsninger og reduserte kostnader. IBM utnytter dette selv, dels fordi det er nyttig, dels fordi konkurransen krever det.
  • Alt og alle blir tilkoblet: Ikke bare mennesker, men enheter: Tagging things (RFID), feeling things (sensorer) things, thinking things (smarte teknologier), shrinking things (nano). RFID kan gjøre kassakøer til historie. Sporing av mat kan også gjøres via RFID. Sensorer gjør at man kan overvåke og oljeinstallasjoner og reparere problemer før de får konsekvenser. Telemedisin gjør at man kan flytte data i stedet for pasienter – spennende teknologi finnes, problemet ligger i å håndtere dataene – "hvor man skal sende dem". I Forsvaret vil man ha sanntids koordinering av våpensystemer og enheter fra flere våpengrener. Miljøkrav kan tilfredstilles ved bruk av sensorer i bygninger og i trafikkkontroll.
  • Revolusjon i ny anvendelse: Språkteknologi (IBM jobber bl.a. med universiteter og Norsk Språkråd for å utvikle en "språkbank" – basis teknologi for nye applikasjoner.
  • Krav til samhandling i sanntid
  • Alt dette vil kreve mye datakraft, som kommer til å leveres som "cloud computing" basert på åpne standarder.

Etter hans foredrag viste vi (for å få litt balanse) denne videoen.

Knut Magne RisvikKnut Magne Risvik fra Google snakket om Cloud Computing. Han begynte med å si at i dag har vi satt verdensrekord – det har aldri vært så mange brukere på Internett som i dag….og i morgen slår vi den igjen. I 2007 er det 1,2 mrd brukere på Internett, en halv miliard nettsteder, en milliard PCer og 3,6 mrd. mobiltelefoner. Men det er 5 mrd. mennesker i verden som ikke har tilgang til Internett. Knut var nylig i Kenya, der var det en bonde som hadde dieselgenerator og lot folk lade opp mobiltelefonen sin mot betaling i korn….

Knut Magne snakket om mange spennede prosjekter, deriblant et prosjekt for å legge Internett ut i verdensrommet, ved å ta i bruk alt romskrapet som finnes der ute – sateliiter og annet som ikke lenger brukes, men som fungerer. Prosessorer har blitt 10000 ganger raskere siden 1980, memory 300000, harddisker 4000000, sluttbruker kommunikasjon hastighet 40000.

Cloud computing er rett og slett å ta dine data og dine applikasjoner og legge dem på nett. Lagring, bredbånd, produksjonsutstyr er nå tilgjengelig og billig. Tre lag i denne modellen (eksemplene er fra Google, men det er mange som gjør dette):

  • Teknologiplatform: Google bygger store datasentre, kjøling er et problem (strømmen til en vanlig desktop PC koster mer enn PCen etter 3 år), egen teknologi med rackede hovedkort. Linux datamaskiner med hjemmelaget nettverk.
  • SaaS: OpenSocial bruker JS/HTML, standard grensesnitt.
  • Applikasjonslag: Google Gadgets er mange tusen ulike små applikasjoner, plasseres på nettsteder rundt omkring. Distribueres gjerne viralt (Facebook har et problem her). Modellene er åpen, tillater mashups, kan hackes (på den gode måten) og disaggregerer web – resultater er at web blir programmerbar, noe som kanskje er den viktigste egenskapen Web 2.0.

Disaggregering er tingen: iGoogle Gadgets gjør det samme for applikasjoner som RSS gjør for informasjon.

Og så viste vi denne videoen….

Knut Morten ÅsrudKnut Morten Åsrud fra Microsoft Norge snakket om SaaS – Software as a Service – og hvor Microsoft investerer i fremtiden. Han begynte med å si at Web er viktig og toneangivende, men det er ikke alt. Jobb- og privatbruk av informasjon smelter sammen, nye dingser kan brukes til mye mer enn underholdning, men det vil fortsatt være servere og annen teknologi i mer tradisjonelle strukturer. Microsoft må være overalt i dette bildet. Infrastruktur kommer imidlertid å bli flyttet fra et hardwarebegrep over til et programvare- og tjenestebegrep, som du har tilgang til fra mange kilder, både bedriftsinternt og fra nettet. Det er opplevelsen for brukerne som kommer til å spille den viktigste rollen, kunder og brukere kommer til å forlange at ting fungerer og er enkelt å bruke. Man vil få nye typer utviklingsverktøy, som demokratiserer utviklingen av ny teknologi og deling av informasjon. Forretningsmodellen til tradisjonelle leverandører, man vil få mange flere, fra lisensmodeller via annonsefinansiering til forbruksbasert prising.

Utviklingen mot SaaS går gradvis. Idag snakker vi om SOA, som handler om å sette sammen komponenter fra mange kilder og tillate sammenknyting. SaaS er en ren leveransemodell, levering av funksjonalitet over nettet. Til slutt har man Web 2.0-begrepet, som er mer orientert mot opplevelsen og forretningsmodellen. Det interessante her blir den nye valgfriheten man får, drevet av nye grensesnitt basert på skjermbevegelser, talegjenkjenning, og søketeknologi. Søk er viktig på mange flere områder enn vi hittil har tenkt på. Dette er grunnen til at Microsoft kjøper FAST – ikke for å konkurrere med Google, men for å tilby søketeknologi rett inn i bedriftens infrastruktur. Man får et spekter fra store globale søketjenester til ting du ikke engang vil se, men som er en viktig del av interne systemer.

Så vi vil få et spekter av tjenester – et eksempel på det er BP, som har laget en "enterprise mashup" for å hjelpe oljeplatformer i Mexico-gulfen bedømme risikoen for orkaner. Et enda enklere eksempel er Windows Update, som brukes av en tredjedel av alle PCer i verden. Et annet krav er tilgang til informasjon fra mange platformer, gjerne samtidig. Leveransemodeller endres mot beta-versjoner og gradvis utvikling-levering.

Microsoft investerer i videreutvikling av Windows, som kommer til å bli mer Live-rettet og mer en platform for annonsering – Microsoft følger Google i så måte. Man vil kunne velge om man vil ha programvaren på betalingsbasis eller annonsefinansiert, for eksempel. Andre teknologitilbud vil bli abonnementsorientert.  

Og så viste vi denne videoen…. 

Håkon Wium LieHåkon Wium Lie fra Opera Software  begynte med den gangen han kom over en datamaskin, i 1980, da han fikk låne en Apple II på Østfold Distriktshøyskole og skrev alle programmene sine selv. Over tid har han lært at programvare kan være greit å kjøpe uten å lage det selv – men på lengre sikt blir programvare borte. Viste en skjerm med ting folk bruker PCen til, mesteparten av dette kjøres på web – tradisjonell programvare blir på lang sikt uinteressant. Vi kommer til å ha mindre av den (med oss), og vi vil ikke like å betale for den. Dette er et problem for tradisjonelle leverandører – Microsoft, naturligvis, men også Opera, som er klientbasert.

Opera er et etproduktselskap som leverer på mange platformer, også på Wii som begynner å bli en viktig platform for sosial surfing. Opera Mini er spennende: Kjøres på mobiltelefoner, og fordeler prosesseringen mellom klienten og en haug maskiner i kjelleren i Waldemar Thranes gate (se denne digi-reportasjen.) Serverne formatterer informasjonen (reduserer den med ca. 90%) og gjør at man ikke trenger så kraftig prosessor i telefonen. Brukes over hele verden.

Verden vil gå mot en type maskin som har vært produsert, nemlig Psion Series 7 – enkle maskiner som starter automatisk og henter mesteparten av funksjonaliteten fra webben. Dette er også filosofien bak OLPC-prosjektet. Her bruker man ikke en desktop-metafor, men tenker på datamaskinen som et leketøy for læring. Maskinen viser f.eks. hvem som er i nærheten.

Alle digitale data og applikasjoner vil ligge på webben.  Åpne formater blir standardisert og lovfestet: Offentlig informasjon skal primært gjøres tilgjengelig på HTML, PDF skal brukes for situasjoner når man trenger å bevare et dokuments utseende, og ODF der ting skal være redigerbart. Formatet er viktig – Håkon mener OGG bør velges fordi det er støttet av store aktører som Wikipedia og dessuten er så patentfritt som bare mulig. Alle mediatyper må og vil støttes på web. Men den vil infiltreres av lukkede standarder. Opera mener at åpne standarder er den eneste veien å gå – Norge er ikke stort nok til å kunne utvikle none lukkede standarder med suksess. Vi tester masse, men problemet er Microsoft, som må presses til å støtte åpne standarder, og som krever at man bruker deres standarder og jobber med EU-kommisjonen om dette.

Og så viste vi denne videoen…. (eller, rettere sagt, vi skulle vise den om ikke teknologien hadde sltt seg vrang akkurat da.)

Per HovePer Hove fra Oracle Norge startet med tittelen 170 "230 milliarder til nye trender". Oracle var et teknologiselskap inntil for 3 år siden, med 40000 ansatte, og nå er de 80000, primært gjennom oppkjøp. Oracle henvender seg utelukkende til bedriftsmarkedet. Mye av det man oppfatter som trender er ikke det, men svar på trender. Trender er ting som endringer i adferd (våre barn oppfører seg anderledes enn oss) og globalisering (ikke bli økonomidirektør, det er en utdøende rase).

Kundene spør ikke lenger om konsolidering, men om å øke sin endringsevne. Toppledere sier at IT er viktig og at IT er et hinder for endring. IT-direktører er nå fokusert på prosesstøtte heller enn teknologi. Endringer blir nå en konstant man må leve med hele tiden. Fire ting som blir viktige:

  • IT-arkitekturen må kunne adressere endring
    Dette har man holdt på med lenge, løsningene har variert over tid, fra best-of-breed, deretter ERP/CRM-suiter, deretter kombinerte suiter (SOA), deretter business services. Softwareleverandører har investert mye i mellomvare (Oracle (Fusion), IBM (Websphere), SAP (Netweaver) og Microsoft (.net). Markedet kommer til å tvinge frem konvergens på dette området. Oracle har kjøpt 52 selskaper de siste tre årene, fokusert på middleware, telecom/utility, bank/finans, og retail.
  • Forretningsbehov og IT må kobles tettere
    Nye verktøy kommer, og de kommer standardisert, som ARIS. Muligheten til å modellere forretningsprosesser er mye større, man lager "blueprint repositories" som ligger mellom forretningsprosessmodell og teknologi.
  • Ny organisering av IT-prosjekter
    De fleste IT-funksjoner organiserer prosjekter som enkeltprosjketer innenfor hvert fagområde. Vi anbefaler at man organiserer seg rundt prosesser i stedet, med prosjekter på tvers. Budsjetter vil flyttes fra fagområder til prosess, prosessene vil være premissgivere for endringer, etc.
  • Kontroll over informasjon
    I en SOA-verden blir de vanskeligere å vite hvor dataene skal være, hvem som skal ha ansvar og kontroll. MDM (Master Data Management) blir et svært viktig fagområde, men er relativt umodent. Mange har sett på dette på kundedata og kanskje også produkt, men dette kommer mer og mer – og hvis man ikke har god kontroll på master-data kan man lage seg et kjempeproblem.

Oracle gjør dette ved å ta ansvaret (for noen bransjer) for integreringen av all den funksjonaliteten man vil knytte sammen. Hittil har det virket – man har beholdt kundene. Dette er en strategi som virker, også i stor skala.

Og så viste vi denne videoen…. 

På tide å komme ut av serverrommet igjen

IBM er, ifølge The Register, i gang med å lage et sentralisert (i hvert fall virtuelt) alternativ til redundante billig-servere (LAMP-arkitektur), som er den rådende måten å levere store web-tjenester (som Google) på. Det er litt pussig med disse stormaskinene – man tror de er utkonkurrert, og så gjøres det en omdreining til, og dermed viser det seg at de kan komme tilbake igjen. Omtrent som harddisker og statiske minnebrikker – harddisken er et gammeldags produkt som burde være borte forlengst, men hver gang det ser ut som en grense er nådd, finner man på noe nytt igjen. IBMs prosjekt heter forøvrig Kittyhawk, som alle med bakgrunn i teknologihistorie vet er stedet der Orville og Wilbur Wright hadde sin berømte første flytur.

Som kommentatorene i Slashdot ganske riktig sier – IBM stormaskiner er fantastisk pålitelige, og ligger bak svært mange eksisterende systemer idag. Det denne meldingen først og fremst betyr, er at LAMP-arkitekturen ikke blir en dyd av nødvendighet for flyselskaper, finansinstitusjoner og andre som trenger skikkelig kraft (en kunde jeg snakket med engang trengte 256 terabyte internhukommelse knyttet til en prosessor, og klaget over at han ikke kunne få det fra sin leverandør). Dette er først og fremst gode nyheter for sentraliserte transaksjonsorienterte systemer – den kjedelige delen av datamaskinverdenen, der tusenvis av kjedelige stormaskiner kjører millioner av kjedelige programmer som genererer milliarder av ikke fullt så kjedelige dollar….

(Via Nick Carr og Slashdot, blant andre.)

IT-trender 2008-2013

Neste mandag skal jeg, sammen med kollega Ragnvald Sannes, guide dette celebre selskapet gjennom et heldags seminar på Software 2008.

Jeg ser frem til dette med forventning – og hva trender gjelder, så peker både teknologi og forretningsutvikling i retning av, tja, hva med "co-location, consumerization, collaboration and (non)categorization" – at IT-jobber flyttes dit de kan gjøres, at klientene blir personlige, at samarbeidsteknologien overtar for rapporteringsmaskinene, og at søk overtar for kategorisering. Hvordan dette slår ut i de enkelte selskapers strategier skal Ragnvald og jeg overlate til de enkelte foredragsholderne å fortelle.

MEN – Ragnvalds jobb her er å være programleder. Min jobb er å stille uforskammede spørsmål. Og derfor ber jeg om hjelp fra dere der ute – uten å garantere noe som helst: Hva slags utfordringer bør jeg gi foredragsholderne?

CSC slipper fangene fri….

Nils Magnus Haldorsen fra CSC er enig med mitt innlegg på digi.no og viser til British Petroleum, som har slakket adskillig av på detaljkontrollen for sine ansatte. Dette er en trend som min gamle venn Doug Neal i CSC kaller "consumerization" – personlig datautstyr blir personlig, og bedriften konsentrerer seg om det som virkelig trenger å være boltet ned og standardisert.

Det rører på seg. Langsomt….. 

Minneverdig sikkerhet

Knut YrvinMitt lille utfall mot "stalinistiske IT-sjefer" (ikke min tittel, men jeg gikk jo med på den) i går har generert en hel masse kommentarer, noe seriøse, andre (som vanlig i en anonym debatt, hvorfor i all verden driver folk og gjemmer seg bak anonymitet hele tiden? Bleikinger!) ikke. Litt slitsomt, men slik er nettdebatt. Og jeg satte jo stor pris på å bli sammenlignet med Selvaag av Knut Yrvin…. Jeg kvitterer med å vise hans blide kontrafei her.

Nuvel. Den vanligste kommentaren er i alle fall "Hva med sikkerheten" – hvis vi slipper brukerne fri kommer de til å gjøre alle mulige rare ting og vi får et mareritt, og så videre. Da er det en fornøyelse å kunne vise til Bruce Schneier og denne lille meldingen om at en svensk militær klarte å glemme igjen en minnepenn med konfidensiell informasjon i en Internett-kafemaskin. Ingen standardisering eller brannmur eller overvåkning i verden kan beskytte deg mot medarbeideres idioti.

I riktig gamle dager (den gangen jeg jobbet i en IT-avdeling selv) ble virus spredd gjennom disketter. I en forelesning ble jeg spurt om hva man skulle gjøre for å være absolutt sikker på ikke å få virus på datamaskinen. Mitt svar var at det var akkurat som med seksuelt overførbare virus – det er bare å beholde lille plastposen (som disketten kommer i) når man setter den inn i maskinen, så får man ikke virus.

Ikke noe annet heller. Men litt må man jo ofre for sikkerheten….

Standardisering og sikkerhet må holdes opp mot hvilke begrensninger man legger på sine brukere. Teknologien har blitt mer standardisert og konsumerisert. Det er på tide å se IT som et innovasjonsmedium, først og fremst – ikke en begrensning. Og det er på tide å slutte å se på brukerne som idioter – eller i alle fall å dele dem inn i kategorier etter i hvilken grad man kan slippe dem løs med teknologien.

Oppdatering 13.1: Festlig innlegg med mange gode eksempler på overivrig IT-politi. 200Mb lagring av e-post? Når Google gir deg over 6 Gb gratis (eller i alle fall uten kontant betaling)? Jeg vet om folk som jobber med grafikk og genererer 200Mb epost hver dag…..

Slipp fangene fri!

Jeg hater bedriftsspesifikke teknologistandarder, i hvert fall de som spesifiserer teknologibruk utover filformater og tilgangsprotokoller. I alle firma jeg har jobbet, har jeg fått utlevert (eller kjøpt selv) en PC eller en mobiltelefon og blitt pålagt å følge en eller annen standard, som regel unødig komplisert, gammeldags, dyr og uinspirerende. Årsaken ligger i at IT-avdelingen trenger en lettere hverdag og at folk skal kunne jobbe på det samme systemet.

Dette har vært greit nok i en viss fase, nemlig dengang PCer var ny teknologi og man ikke lett kunne flytte data mellom applikasjoner og maskiner, men den tid er faktisk forlengst over. Samtidig er vi mennesker ikke noe mindre forskjellige enn før, og dessuten konkurrerer bedrifter nå på kunnskap og innovasjon, ikke eksekusjon. Slipp diversifiseringen løs, for da kommer de nye, profitable innovasjonene!

I dag er teknologien i altfor stor grad et hinder for innovasjon og et middel for for mye kontroll. Selv opplever jeg og andre et digitalt skjemavelde både offentlig og i jobbsammenheng. IT-konsulenter jeg kjenner, løper rundt med 3-4 laptoper, men gjør mesteparten av jobben på sin private, for der kan de selv velge verktøy. Ikke bare firmaet de jobber for, men også hver av kundene har stalinistiske teknologipolicies og tillater ikke avvik. Mange lærere i grunnskolen, som skal hjelpe elevene til å lære seg om data, får "av sikkerhetshensyn" ikke lov til å innstallere software på sine PCer eller lese eposten hjemmefra. All kontrollvirksomheten gjør også at man er uhyre treg med å ta i bruk ny teknologi – enkelte organisasjoner jeg kjenner bruker fortsatt Lotus Notes for epost og har ikke gått over fra Win2000 til Windows XP før ganske nylig.

I BSG Concours Institute har vi nå gående et prosjekt, med navn REC (Reinventing End-user Computing) som tar for seg hva som skal til for å få IT-avdelingen ut av PC-bransjen. Hva slags PC man har, bør være et personlig ansvar – hvis man vil ha en Tablet-PC fordi den er fin til å holde foredrag (slik jeg gjør) eller en Mac fordi man ønsker å projisere sin moteriktige uavhengighet, så vær så god. Dette krever at IT-avdelingen definerer et standardisert (web- eller klientbasert) grensesnitt inn mot alle felles applikasjoner, samt at den enkelte bruker (og deres sjefer) tar ansvar for trouble-shooting selv.

Da jeg for noen måneder siden nevnte dette for en gruppe studenter med IT-bakgrunn på BI, ble det nærmest opprør: Dette kunne man ikke gjøre, du kan ikke stole på brukerne, teknologien er ikke god nok, det ville blitt totalt kaos, og så videre. Men Concours Institute har faktisk startet dette prosjektet fordi CIOs fra en rekke store amerikanske selskap (Fortune 500) ba oss om det. De er lei av å stå for kontroll av noe som ikke bør kontrolleres. Hvis de, med alle sine Sarbanes-Oxley-krav, kan tenke på dette, er det kanskje en tanke for deg også?

Dessuten vet gode IT-sjefer at de virkelig kreative medarbeiderne gir blaffen i alle IT-standarder uansett. Og er glad for at de gjør det, for der har de sitt testmiljø, sine idékilder og sin fremtid.

Personlig teknologi er et personlig spørsmål – slipp fangene fri!

Oppdatering: Anders Brenna slo til og la denne inn som debattartikkel på digi.no under tittelen "Stalinistiske IT-sjefer hindrer kreativitet," som jo fikk fart på kommentarene….

IT og ungdommen

PFIT logo

Nytt og nyttig møte i Polyteknisk Forenings IT-gruppe:

29. oktober kl. 1700: Hvordan skal IKT-næringen kapre ungdommen?
Liv Freihow, IKT-Norge
IKT-Norge lanserer høsten 2007 en langsiktig kampanje for å få flere unge interessert i studier og jobb innen IT bransjen. Norsk ungdom er verdensmestere på bruk av IT. Målet er å tenne lysten hos disse til å utvikle morgendagens produkter og løsninger. Liv Freihow er prosjektleder i IKT-Norge og presenterer ideer, planer og aktiviteter.

Det blir debatt – bl.a. har Kirsti Kierulf fra Accenture meldt sin ankomst – så hvorfor ikke benytte anledningen til å møte opp for å diskutere et tema både IT-bransjen og nasjonen generelt bør ha all interesse av å bry seg om? Dessuten er det en sjanse til å bli kjent med PFIT og Polyteknisk Forening, et nøytralt møtested for alle som er interessert i teknologi og samfunn. Og mye annet.

ND som Norges Google

ND Masthead

En hyggelig sideeffekt av å være foredragsholder er at man får møte mange spennende mennesker (og av og til danse med dem). I forigårs hadde jeg en opplevelse utenom det vanlige: Jeg fikk jobben med å forklare, på NDs 40-års-jubileum, hvorfor Norsk Data gikk nedenom. ND, som i 1987 hadde 5000 ansatte og var nummer to eller tre på Oslo Børs, gikk ut som et lys da nittitallet begynte, restene ble solgt til Siemens-Nixdorf, men mange små og store datafirma i Norge og utlandet har aner i Norsk Data.

Jeg hadde litt ærefrykt da jeg skulle i gang – de andre foredragsholderne var Lars Monrad-Krohn, en av stifterne av ND og senere stifter av Mycron og Tiki-Data, Rolf Skår, adm.dir. i ND i oppgangen og begynnelsen på nedgangen, og Terje Mikalsen, NDs meget sterkt involverte hovedinvestor.

Rolf Skår (dette var det andre foredraget han holdt siden han gikk av for 22 år siden) sa noe jeg syntes var spesielt interessant: Han fremhevet NDs fokus på selvdrevne grupper og sterke kultur for å ta initiativ rundt utvikling. Kulturen var på mange måter tilsvarende det Apple har vært kjent for og Google er den fremste eksponenten for nå: Voldsom fokus på produktkvalitet og innovasjon. Vanskelighetene for et slikt firma oppstår når man får en utfordring der organisasjonens kultur og verdier – ikke dens arbeidsrutiner, kunnskaper eller teknologi, de kan endres – ikke passer til markedet lenger. De faktorer som hadde gjort ND til en slik fabelaktig suksess virket mot sin hensikt når markedet etterspurte billigere, ikke bedre, datamaskiner.

Det gjenstår å se hva utfordringen for Google kan bli (kanskje kinesisk sensur?) John Sculley forsøkte å endre Apples kultur, men det gikk ikke (et lite kjent faktum er at Microsoft i en episode gikk inn i Apple med $150m for å redde firmaet), og Steve Jobs kom tilbake og trakk på den sammen kulturen inn i et nytt marked i stedet. Problemet for ND var vel at det ikke var noe nytt marked å gå til der man fikk nok betalt for en proprietær arkitektur og software.

Foredraget mitt gikk greit, syntes jeg selv i alle fall, selv om prosjektoren døde midtveis. Det er deilig med en forsamling som man ikke behøver å forklare alle teknologibegrepene for. Og jeg fikk lagt inn en liten reklame for Nøgne Ø, et firma som ikke står tilbake for ND, Apple eller Google når det gjelder fokus på produktkvalitet og innovasjon.

Oppdatering I: Nøgne Øs nettsted er stengt av myndighetene, her er informasjon fra norsk Wikipedia.

Oppdatering II: Bilder fra seansen her.

E-enterprise 2007…

Ragnvald Sannes…er tittelen på et Master of Management-kurs, arrangert av min eminente kollega Ragnvald Sannes, som starter 26. september og går gjennom fem moduler med følgende innhold og forelesere:

1. samling: 26.09 – 29.09 2007 – Forretningsutvikling: strategi, teknologi og teknologiutvikling – Espen Andersen
2. samling: 07.11 – 10.11 2007 – Innovasjon, innovasjonsprosesser og effekter – Jon -Arild Johannessen
3. samling: 09.01 – 12.01 2008 – Ledelse av IT-funksjonen og teknologiske plattformer – Bo Hjort Christensen
4. samling: 05.03 – 08.03 2008 – Informasjonsteknologi i kunnskapsledelse – Petter Gottschalk
5. samling: 16.04 – 19.04 2008  – IT-ledelse: strategi, organisering og endring – Ragnvald Sannes

Jeg kan anbefale dette kurset (kanskje ingen overraskelse, siden jeg skal være en av foreleserne) for alle som er i eller kan tenke seg en mellomlederstilling innen IT-ledelse, eller for folk som har stillinger som medfører interaksjon med en IT-avdeling. Master of Management-kurs er en grei oppdatering for folk som er i jobb: Modulbaseringen muliggjør arbeid, samtidig som man får større
faglig fordypning enn kortere seminarer og kurs. Dessuten treffer man folk i samme situasjon over en lengre periode. Dessuten skal det produseres et faglig arbeid i løpet av kurset, og da har man sjansen til å få gjort den utredningen, arkitekturanalysen eller strategien man aldri får tid til – med veiledning av BIs fagkrefter.

Her er detaljene – ta kontakt med Ragnvald om du har spørsmål og kanskje kunne tenke deg å bli med!

Oppdatering: Ragnvald har lagt litt mer informasjon her – inklusive svar på endel spørsmål mange har.

Hvem blir årets CIO?

Onsdag er det IDC-konferanse med annonsering av hvem som blir årets CIO (eller IT-direktør, som de kaller det). Jeg har sittet i juryen og skal også holde et foredrag.

Uten å røpe hvem som kommer til å vinne vil jeg si at det har vært morsomt å være jurymedlem, og interessant å møte både kandidatene og de andre jurymedlemmene. Det er gode kandidater – og for meg har det vært særlig morsomt å se at dyktige IT-sjefer/direktører/CIOs ikke bare er noe som forekommer i store og helst amerikanske firma – selv om man må naturligvis nok må nedskalere ambisjonsnivået en liten smule hva gjelder budsjetter og tiltak.

Skal du dit, så sees vi på onsdag.

Oppdatering 31.5: Som kjent ble det Hans-Petter Aanby fra Norwegian som vant. Siden jobben til en CIO (og rollen til IT i det hele tatt) er å øke effektivitet, fremme kundetilfredshet og muliggjøre innovasjon, og Hans-Petter og hans folk har redusert billettkostnaden med 200 kr pr. passasjer, laget en løsning med "lavpriskalender" de er alene om (og som fører til at 85% av billettene bookes over nettet) og nå er igang med å starte en nettbank basert på de samme løsningene, var det liten tvil – selv om de andre kandidatene på ingen måte var dårlige.

Linuxdagen 2007

Jeg har vært konferansier på Linuxdagen 2007 – og tok notater underveis, som står herunder.

Mitt inntrykk denne gangen er at nå er Linux – eller kanskje, mer generelt, åpen kildekode og åpne standarder – blitt modent nok til at det i de fleste tunge sammenhenger er et meget solid alternativ til proprietær software. En annen refleksjon er at forbausende mange av temaene – som tekniske beslutninger rundt hvordan man skal bedrive virtualisering eller spørsmål om forholdet mellom leverandør og IT-sjef – ikke har forandret seg det grann siden den gangen jeg selv rotet rundt med styring av en IT-avdeling og en IBM 4381 stormaskin engang på det glade 80-tall. Noe som jo er befriende for en aldrende teknolog. Abstraksjon er tingen….

Les videre

IT-styring: Referat fra PFIT-møte

Det ble et lite møte – 12 personer – men med gode spørsmål og livlig diskusjon da PFIT arrangerte møte om IT-styring 26. februar 2007. Her følger mine notater fra foredraget og kommentarene:

Les videre