Hur kommer framtidens internet att se ut? Det är en fråga som jag varit framme och nosat på med mina inlägg på Skiften tidigare.
Hur internet kommer att se ut är nämligen inte säkert, det finns inte en karta. I dag har vi ett i backspegeln förvånansvärt öppet internet. Särskilt när vi ser på vad som skulle ha kunnat vara de alternativa strukturerna.
Minitel startade i Frankrike på 80-talet. Det var ett datanät för allmänheten. Mycket av det som nu finns på webben fanns redan då på Minitel (eller Teletel som nätverket egentligen hette, Minitel var terminalen). Där kunde man bok biljetter, beställa på postorder några decennier för dotcoms kom på idén, skicka textmeddelanden och använda elektroniska anslagstavlor (vilket var mycket populärt för prostituerade att hitta kunder på). Det gick att göra elektroniska betalningar. De dumma terminalerna fick man gratis av post- och televerket, men man betalade för varje minuts användning.
Den dumma terminalen var då bara ett tangentbord och en skärm, ingen egen processor eller minne (förutom för att förstå knapptryckningar och skärmsignaler). Minitel var en sådan succé att internet började introduceras i slutet av 90-talet i Frankrike, mot nio miljoner Minitelterminaler med 25 miljoner användare.
Faktiskt finns hela två miljoner terminaler för Minitel ute, och iallafall en miljon används fortfarande
Japan har länge sett som datateknikens hemland, men de var också långsamma på att utveckla nätet. Detta då det var bra mycket lättare för dem att utveckla föremål som innehöll renodlat funktionen. Istället för att köpa en jättedyr motsvarighet till den första hemdatorn för att skriva det komplicerade japanska skriftspråket så köpte man en Nintendo konsol och kunde börja spela direkt.
Dessa två datahistoriska alternativ hade inte varit för omöjliga att tänka som utmanare. Dock så fick vi de smarta, generella terminalerna där PC och internet gav användaren makten över funktionerna. Det var inte planerat att utvecklingen skulle gå så, men det fanns de som tog upp debatten och påvisade tydligt fördelarna. Jag anser att vi i längden vann mycket mer på den mer öppna miljön vi fick. Den blev långt mer innovativ, om än kanske mer komplicerad och mindre säker för användarna.
Är vi kanske på väg tillbaka till det slutna nätet och de dumma terminalerna? Är virtualiseringen slutet för vår kontroll av mjukvaran? Två frågor jag ser som något överdrivna, och som inte tar upp fördelarna, för dem finns ju. Men jag tar upp den kontroversiella sidan som ett skifte, då jag inte ser så mycket diskussioner. Det är en annorlunda debatt än den som förts i Sverige tidigare, som varit mycket mer av fysisk infrastruktur, och jag tror att det är nödvändigt att ta upp den nu.
Vi kanske får tid att diskutera detta tack vare finanskrisen, och att det inte verkar gå så bra för Google hittills.
Striderna om toppdomänerna fick lite uppmärksamhet för några år sedan, men den här debatten kan bli svårare.
Framtidens informationsstrukturer tas inte riktigt upp i politiken utan mest i inköparrollen och integrerat i andra verksamheter. Visst kan man lära sig på dataslöjden, men man måste först ha möjligheterna att arbeta öppet och fritt i miljön.
Så vad kan vi se för konkreta fördelar i den nya miljön? Är den så ”dum” som jag provokativt skildrat den? Vad ser vi för nackdelar? Var bör vi lägga tonvikten i skiftet?
Pingat på Intressant.se
Nästa stora skifte på internet torde vara ipv6 och att antalet uppkopplade enheter exploderar. Projekt som Other 3 Billion med Google som huvudsponsor indikerar kanske också att internet verkligen blir demokratiskt och rättvist, på en global skala.
Ett fritt och stort Internet kommer aldrig att bli rättvist i den vanliga svenska meningen (alla är i stort sett lika). Den naturliga tendensen i sådana system är att uppmärksamhet (och därmed makt/pengar) sprider sig som en potenslag, vilket leder till att vissa personer/websidor/tjänster får enormt genomslag i jämförelse med majoriteten. Detta är inget problem om man ser detta som equality of opportunity eller demokrati (alla har faktiskt chansen att göra websidan som blir den stora memen), men stora nät leder troligen spontant till stora koncentrationer.
Det skifte som behövs för att ett ipv6-nät verkligen ska bli sant globalt är bra automatisk översättning. Idag är det kinesiska nätet nästan helt isolerat gentemot det svenska. Det faktum att man från Kina kan läsa skiften.org betyder inte att den läses – den är språkligt och kanske kulturellt isolerad. Men översättning så bra att den kan passera inte bara språkbarriärer utan också kulturbarriärer kräver troligen artificiell intelligens över den mänskliga. Dessförinnan kommer det tekniskt globala nätet vara låst åtminstone av kulturbarriärer.
Waldemars farhåga om inlåsta nätfunktioner är komplex, för de kan låsas inte bara genom att folk använder lättanvända men begränsade produkter eller genom att stater och företag framtvingar låsta lösningar a la DRM och certifikat utan också genom framväxten av onlineinstitutioner (stödda av potenslagsdynamiken ovan) som låser. Om man måste använda twingly för att ens blogg ska fungera socialt kan därmed twingly låsa åtminstone bloggarnas utveckling.
Det största hotet om att låsa nätet är dock den ökande svårigheten att överhuvudtaget manipulera lågnivåfunktioner (t.ex. för att lära sig hur den är uppbyggd eller konstruera alternativ) – vilket är en direkt följd av dagens hårdvaras och mjukvaras komplexitet, och inte bara resultatet av försök att låsa den. Hur många människor (per capita) laborerar egentligen med Linuxkärnan i jämförelse med hur många som meckade med sina fordon på 50-talet?
Anders, en fråga tillbaka: är det superstjärnor som uppstår på nätet i dag? Jag får intrycket att just superstjärnan, en Michael Jackson eller Madonna får problem, då man inte kan dominera alla nischer längre. Det blir många små stjärnor, men fara kan vara att dessa inte får tillräcklig höjd. Vad anser du om det?
Sedan är vi kulturellt avskurna, det har Anders rätt i. Vi ser inte den kinesiska eller den italienska bloggvärlden då det är ett annat språk den förs på. Den anglo-saxiska kultursfären har tjänat på det, men upp till en viss punkt.
Föremål, teknik och artefakter har blivit mindre möjliga för oss konsumenter och användare att själva omforma och ändra på. Det är en del av att den kunskapen behövde ”låsas fast” i industrins strukturer. Jämför radioamatörer då och nu. Nu kanske vi går tillbaka till en teknikstruktur som är mer Do-it-yourself?
Det är ett svårt skifte jag försöker beskriva ovan, särskilt i en tid där politik drivs fram av detaljproblematik efter detaljproblematik, med starka ”rent-seeking” särintressen. I mycket uppfattar jag att tech policy (finns det ett ord på svenska?) är händelsestyrd, då det inte finns en teknikideologisk mall att stämma av med.
Den klassiska superstjärnan uppkom när stärnor (vilka bars fram av talang eller nätverkseffekter) förstärktes av marknadsföring. Idag kan man råka nå samma nivå av kändisskap genom nätverkseffekter. För att bli en *varaktig* superstjärna, vare sig man är en sångare eller en blogg, krävs däremot förmodligen rätt medveten hantering av sin marknad. De flesta internetmemer är glömda året efter, och kunde (liksom dokusåpekändisar) aldrig konvertera sin uppmärksamhet till varaktigt eller lönsamt kändisskap.
Att det finns mycket DIY betyder inte att nyckelteknologierna är öppna för allmänheten. Jag hade inga problem att montera ihop min senaste dator efter tycke och smak, men det bestod i att sätta ihop svarta lådor – när kommer möjligheten att faktiskt editera vad som ska finnas i processorn? Även om sådana optioner mest skulle användas av enstaka entusiaster är det viktigt att ha teknologiska utvägar från rent-seeking låsningar. Men eftersom detta problem inte är en händelse, så finns det nog inte så mycket tech policy som förordar ”the freedom to tinker”.