(Publisert i Økonomisk Rapport 6/2008)
På lenger sikt er det imidlertid bare en faktor det er virkelig mangel på når det gjelder IT-utviklingen, skriver Espen Andersen, som tar for seg driverne bak IT-utviklingen.
IT – drevet av knappe ressurser
Hvordan vi organiserer vår informasjonsbruk har alltid vært preget av hva slags ressurser det har vært knapphet på til enhver tid. I fremtiden vil vår bruk av datamaskiner se forskjellig ut – og her kan Norge spille en rolle.
Teknologi former organisasjoner. Uten damp, jernbane og kanaler, ingen industrialisering. Uten telefon og heis, intet sentralt hovedkvarter i sentral skyskraper, separat fra produksjonen. Uten hengemapper, ingen memoer (og gjett hva elektronisk post er basert på?)
Hvordan vi organiserer vår teknologi, særlig informasjonsteknologi, er mer preget av hvilke mangler teknologien har enn dens muligheter. I datamaskinens barndom – frem til ca. 1990 – var datamaskiner kostbare og svært begrenset. Prosessering var dyrt, og mye krefter ble brukt til å få så mye nytte ut av hver enkelt datamaskin som mulig. Man fordelte omhyggelig tiden hver bruker kunne ha på hver maskin, til å begynne med ved at folk stod i kø, etter hvert med sentraliserte operativsystemer som delte datakraft ut til brukere etter behov og budsjett.
PCen, mot slutten av 80-tallet, gjorde prosessering billig. Hvis et program ikke gikk raskt nok, ble det stadig oftere mer økonomisk å kjøpe flere datamaskiner enn å bruke tid på å gjøre programmet raskere. Slik er det fremdeles: Mesteparten av datakraften i en PC går ikke til å beregne renter eller formattere tekst eller hva man nå skal bruke programmet til, men å gjøre programmet lett å bruke. Og mesteparten av tiden gjør PCer ingenting – for det meste står de rett og slett og venter på neste tastetrykk eller museklikk.
Da prosessering ble billig, ble kommunikasjon – eller rettere sagt kommunikasjonskapasitet – en kritisk ressurs. Internett er designet rundt denne begrensningen. For svært mye informasjonsbruk er det slik at man har prosesseringskraft på en lokal klient, som en PC eller en mobiltelefon, og informasjon på en sentral server. Mellom klient og server er det et tregt og til tider upålitelig nettverk – og denne trege kommunikasjonskanalen måtte utnyttes så mye som mulig. Det blir viktig å begrense mengden data som måtte suges ned gjennom det tynne nettverkssugerøret – og mye av tankevirksomheten rundt datamaskiner de siste 15 årene har gått med til å definere hva som skulle gjøres lokalt (presentasjon) og hva som skal gjøres sentralt (lagring og til dels prosessering).
Etter hvert som privatpersoners bruk av Internett har finansiert stadig raskere og bedre nettverk, er kommunikasjon i ferd med ikke lenger å være en kritisk ressurs. I de fleste urbaniserte strøk kan nå en privatperson få 100 Mbps via fiberkabler (i hvert fall hvis man er villig til å betale litt skikkelig), og mobilnettverket leverer opptil 3Mbps for en relativt rimelig penge. Man kan laste ned eller se direkte filmer og musikk, sende bilder av seg selv og andre rundt omkring i verden uten vanskelighet og med liten forsinkelse. Det finnes til og med internettsider som lar deg laste opp film fra mobiltelefonen mer eller mindre direkte. Programvareleverandørene har fulgt opp, og leverer i stadig større grad sin funksjonalitet rett over nettet, rett og slett fordi den høye hastigheten tillater det.
Med andre ord, prosessering og kommunikasjon er ikke lenger noe man trenger å tenke mye på. Hva er det da som holder igjen utviklingen, og som man må organisere seg rundt?
På kort sikt ser det ut til å være energi. Datasentre bruker enorme mengder elektrisitet, primært for kjøling. Vi kan løse dette ved å utnytte det faktum at det er mye mindre kostbart å flytte bits (data) enn elektrisitet (der man taper mye effekt i lange kraftlinjer.) Ved å legge datasentre til steder med god tilgang på strøm, fortrinnsvis i kaldt klima slik at behovet for kjøling reduseres, kan man spare energi. Både Microsoft og Google, for eksempel, har bygget et datasenter i Oregon nær en vannkraftverk, og vurderer å bygge tilsvarende sentre på Island.
Fremtidens firma vil ha sine datasentre – for mange av dem, delt med andre bedrifter – i det kalde nord, nær en stor elv eller høy foss. Det slår meg at her bør norske kraft- og industrikommuner på Vestlandet kjenne sin besøkelsestid – noen hundre tusen servere i en gammel industrihall på Vestlandet må da være en glimrende investering, slik bl.a. Helge Skrivervik har tatt til orde for?
Andre knappe faktorer man sliter med er metadata – det å sette ord på informasjon som er lagret i form av video og audio, slik at den blir søkbar . Her er det imidlertid stor utvikling, og mange oppfinnsomme løsninger som crowdsourcing, interpolering mellom informasjonskilder og bedre og bedre automatisert bildetolkning. Andre begrensninger er at Moore’s lov begynner å gå mot slutten etter hvert som informasjonskanalene i prosessorene blir så trange at elektronstrømmene ikke lenger oppfører seg pålitelig, og de begrensninger i prognostisering som ligger i kaotiske systemer, slik som vær og aksjekurser.
På lengre sikt er det imidlertid bare en faktor det er virkelig mangel på: Kunnskap (eller, mer presist, folk som er villig og i stand til å arbeide med informasjonsteknologi). Andelen av smarte folk er stort sett konstant i enhver befolkning, uavhengig av utdanningsnivået. Etterspørselen er økende, og vil fortsette å øke i overskuelig fremtid, for folk som forstår hva som er inne i boksen og kan gjøre noe for å utvikle, ikke bare fikse det. Altså må vi optimalisere vår teknologi rundt tilgjengeligheten på folk som kan utvikle og drive den.
De fleste av de personer som arbeider med å utvikle og optimalisere informasjonsteknologi har liten interesse av å bo i fjerne og kalde deler av verden, uansett hvor god tilgangen på elektrisitet måtte være. Men siden digital informasjon kan flyttes nesten hvor som helst, vil folk som arbeider med dem vil bli plassert på steder som tilbyr det de anser som å være det gode liv, enten det nå vil si Boston eller Bangalore, Silicon Valley eller Silicon Glen. De vil være relativt sentralisert (uansett videokonferanse, det hjelper å sitte tett sammen med mange andre eksperter når du skal utvikle nye ting.) Selv om de sitter i tett grupper (gruppert etter sine kunnskaper mer enn hvor kunder og teknologi er), vil de samarbeide med folk over hele verden. Tidssoner mer enn avstand vil bli noe man vil slite med – i mange tilfelle kommer man til å forholde seg til en felles tidssone, antakelig dominert av amerikansk østkyst. Forfatteren Cory Doctorow har skrevet en roman med tittelen Eastern Standard Tribe, som betegner nettopp denne gruppen mennesker.
Jeg tror mangel på kunnskap vil være med oss for alltid – samtidig som vi flytter tettere til Googles visjon av teknologi som organiserer all informasjon i hele verden, er det fortsatt en lang vei å gå. Menneskelig oppfinnsomhet og variasjon vil sikre at om vi noen gang kommer dit, vil denne teknologien være forskjellig a) svært forskjellig fra hva vi kan forestille seg nå, og b) vil ta mye lenger tid å utvikle og enda lenger tid for å bli tatt i bruk enn vi tror. Det er en god mulighet for at den vil konstrueres på dårlig engelsk, men bli brukt med automatisk oversettelse et eller annet sted mellom teknologi og bruker.
Og godt er det, for jeg tror teknologi som fungerer smertefritt er et problem i seg selv. Som Jonathan Zittrain sa på en konferanse nylig: "På randen av kaos ligger suburbia" – en ren, velfungerende teknologi, som fordi den skal fungere for de mange blir tett kontrollert av de få, som ønsker å forhindre at de smarte videreutvikler den. Menneskelig oppfinnsomhet trives under imperfekte omstendigheter, der feil kan bli utnyttet eller overvunnet, og hvor det ligger forretningsmuligheter for de som har energi og initiativ til å søke dem.
Måtte det alltid finnes knappe ressurser og mangelfull infrastruktur slik at vi sikrer fortsatt innovasjon!