Spotify är rätt ute. Rätt ute i det vilda!

Spotify släppte här om dagen libspotify, ett förkompilerat C-bibliotek, vilket gör det möjligt att bygga in Spotify-strömmar och sökningar i annan mjukvara. Det faktum att det är förkompilerat betyder att den ursprungliga källkoden inte är tillgänglig, men trots detta bör man se detta är det en mycket trevlig invit som skvallrar om Spotifys inställning. Det förklarar även varför de inte lagt ned mer arbete på sin klient än vad de gjort, jag menar varför utsätta sig för risken att få sin klient utkonkurrerad av en senare uppstickare när man är har den komperativa fördelen att vara tidigt ute med att ha de rättsliga bitarna på plats (typ). Nu har de möjlighet att bli Flickr för musik (bortsett från de geografiska begränsningarna med upphovsrätt); de saknar dock fortfarande en viktig komponent: att kunna tillföra innehåll, användarskapat innehåll.

En annan intressant detalj är att biblioteket än så länge enbart finns i en Linux version. Det säger något om kulturen, men det är också anmärkningsvärt eftersom det saknas en Linux-klient till Spotify. Linux-användare har hitintills fått använda sig av omvägen via Wine.
Detta gör troligen att vi inom ett par veckor (kanske någon månad) kommer ha den mest spännande Spotify-klienten exklusivt i Linux och BSD, troligen först genom att inkludera strömhanteringen i existerande program, så som iTunes-kopian Rhythmbox.

With the release of libspotify we hope to empower our users to build upon what we’ve started and come up with imaginative and innovative new ways of interacting with Spotify. There are hundreds of features that users have suggested to add to Spotify and by taking this step we hope to encourage the developer community to expand our service.

Mjukvaruutveckling by imaginative users. De var inte först, men de kommer inte heller vara de sista. Jag efterlyser sömlös integration med andra källor. Detta är ett spännande skifte!

Veckans skifte: Låste vi internet?

Hur kommer framtidens internet att se ut? Det är en fråga som jag varit framme och nosat på med mina inlägg på Skiften tidigare.

Hur internet kommer att se ut är nämligen inte säkert, det finns inte en karta. I dag har vi ett i backspegeln förvånansvärt öppet internet. Särskilt när vi ser på vad som skulle ha kunnat vara de alternativa strukturerna.

Minitel startade i Frankrike på 80-talet. Det var ett datanät för allmänheten. Mycket av det som nu finns på webben fanns redan då på Minitel (eller Teletel som nätverket egentligen hette, Minitel var terminalen). Där kunde man bok biljetter, beställa på postorder några decennier för dotcoms kom på idén, skicka textmeddelanden och använda elektroniska anslagstavlor (vilket var mycket populärt för prostituerade att hitta kunder på). Det gick att göra elektroniska betalningar. De dumma terminalerna fick man gratis av post- och televerket, men man betalade för varje minuts användning.

Den dumma terminalen var då bara ett tangentbord och en skärm, ingen egen processor eller minne (förutom för att förstå knapptryckningar och skärmsignaler). Minitel var en sådan succé att internet började introduceras i slutet av 90-talet i Frankrike, mot nio miljoner Minitelterminaler med 25 miljoner användare.

Faktiskt finns hela två miljoner terminaler för Minitel ute, och iallafall en miljon används fortfarande

Japan har länge sett som datateknikens hemland, men de var också långsamma på att utveckla nätet. Detta då det var bra mycket lättare för dem att utveckla föremål som innehöll renodlat funktionen. Istället för att köpa en jättedyr motsvarighet till den första hemdatorn för att skriva det komplicerade japanska skriftspråket så köpte man en Nintendo konsol och kunde börja spela direkt.

Dessa två datahistoriska alternativ hade inte varit för omöjliga att tänka som utmanare. Dock så fick vi de smarta, generella terminalerna där PC och internet gav användaren makten över funktionerna. Det var inte planerat att utvecklingen skulle gå så, men det fanns de som tog upp debatten och påvisade tydligt fördelarna. Jag anser att vi i längden vann mycket mer på den mer öppna miljön vi fick. Den blev långt mer innovativ, om än kanske mer komplicerad och mindre säker för användarna.

Är vi kanske på väg tillbaka till det slutna nätet och de dumma terminalerna? Är virtualiseringen slutet för vår kontroll av mjukvaran? Två frågor jag ser som något överdrivna, och som inte tar upp fördelarna, för dem finns ju. Men jag tar upp den kontroversiella sidan som ett skifte, då jag inte ser så mycket diskussioner. Det är en annorlunda debatt än den som förts i Sverige tidigare, som varit mycket mer av fysisk infrastruktur, och jag tror att det är nödvändigt att ta upp den nu.

Vi kanske får tid att diskutera detta tack vare finanskrisen, och att det inte verkar gå så bra för Google hittills.

Striderna om toppdomänerna fick lite uppmärksamhet för några år sedan, men den här debatten kan bli svårare.

Framtidens informationsstrukturer tas inte riktigt upp i politiken utan mest i inköparrollen och integrerat i andra verksamheter. Visst kan man lära sig på dataslöjden, men man måste först ha möjligheterna att arbeta öppet och fritt i miljön.

Så vad kan vi se för konkreta fördelar i den nya miljön? Är den så ”dum” som jag provokativt skildrat den? Vad ser vi för nackdelar? Var bör vi lägga tonvikten i skiftet?

Pingat på Intressant.se

Läs mer om internet, framtiden

Vems är datormolnet?

Computer Sweden skriver om att Jättarna bygger datormolnlabb

Intel, Yahoo och HP startar ett labb, för att forska om datormoln.

Mjukvaran skall bli open source och man tänker dela med sig.

OK det är Gartner stora trendspaning för i år, cloud computing där molnet är en via nätet tilldelad minnesresurs istället för en annan maskin. Det som tidigare var programvara blir tjänster ”Everything as a Service” EaaS. Det verkar som om det är en bit kvar innan serverhallen sugs upp i datormolnet, t.ex. får man betala för upptiden på EC2, men utvecklingen har gått framåt. Molnet av de ihoppkopplade servrarna kan sedan t.ex Amazon, HP eller Google administrera.

Fördelarna är mycket lockande, servrar används när de behövs, lägre investeringar i maskinvara, går att skala upp massivt, lägre energiåtgång och lättare åtgång som är oberoende av vilket verktyg du använder för access. Det torde vara särskilt lockande för mindre företag.

Jag kanske är miljöskadad av den senaste tidens debatt om integriteten, men ett aber jag kommer att tänka på är just att mer av min information hamnar utanför min kontroll med ökad virtualisering. Är detta en risk? Kan den designas bort?

Pingad på Intressant.se