K179: Internets kollaps? Om nätets beroende av varuleveranser och underhåll

Förra inlägget diskuterade några dystopiska scenarion om hur internet kollapsar i ett digitalt kaos, till följd av internationella konflikter och marknaden för säkerhetsluckor. Gemensamt för dem är att de föreställer sig att internet har nedbrytande krafter som kommer “inifrån” från det digitala hållet eller “utifrån” det politiska hållet. Däremot tycks dessa teorier utfå från att den materiella infrastrukturen kan upprätthållas.

Här ska jag återge den dystopi som förts fram av den tyske läkaren och författaren Thomas Grüter i boken Offline, även sammanfattat i ett kortare föredrag.

Grüters bok handlar, enligt undertiteln, om “internets ofrånkomliga slut” och om “informationssamhällets undergång”. Jag vet inte om han faktiskt argumenterar för en ofrånkomlighet; i föredraget radar han mest upp vad han menar är allvarliga risker. Utgångspunkten är att “komplexa system” tenderar att bli ständigt mer komplexa och därmed mer sårbara. Här knyter Thomas Grüter an till Joseph Tainers kollapsteori. Dessa teorier kanske inte befinner sig mitt i den cybernetiska teoritraditionen, men de utgår ändå från en cybernetisk ontologi där “system” blir ett överbegrepp som kan syfta på ett helt samhälle såväl som på en infrastruktur. Därför tänker jag att dessa kollapsteorier kan beskrivas i termer av cybernetisk tragik (oavsett om de handlar om internet eller inte).

Äsch, nu till saken. Thomas Grüter idenfierar i grunden tre slags sårbarheter:

1. Nätet är sårbart för störningar i tillgången på hårdvara
Tillverkningen av datorchips (integrerade kretsar) blir allt mer koncentrerad till ett fåtal företag med jättelika anläggningar. Att bygga en ny fabrik uppges kosta 5 miljarder dollar. Hårddisktillverkningen är sedan 2012 helt dominerad av endast två–tre företag, liksom är fallet med tillverkning av grafikkort. De allra flesta fabrikerna ligger i Asien och i många fall krävs råvaror i form av sällsynta metaller som framför allt finns i Kina. Problemet förvärras av att konsumentprodukterna sällan är byggda för att hålla i mer än ett fåtal år; i vissa fall är det rentav fråga om “planerat åldrande” för att hålla efterfrågan uppe.

Informationssamhället i Europa är alltså beroende av att varuflödet från Ostasien inte avbryts. Om det skulle utbryta ett större krig t.ex. i Sydkinesiska sjön kommer det att skapa konsekvenser för tillgången på elektronik i hela världen. (Thomas Grüter glider här ut i en spekulativ tanke om överskottet på män i Asien, till följd av selektiva aborter, kommer att skapa ett “samhälleligt tryck” som riskerar att explodera i krig just i denna del av världen.)

2. Nätet är sårbart för ekonomiska kriser, till följd av de höga och stigande kostnaderna för att upprätthålla den digitala infrastrukturen
Här handlar det om så grundläggande saker som att fiberoptik måste lagas och basstationerna måste hållas i gång. Thomas Grüter menar att infrastrukturens kostnader skenar iväg bortom all kontroll. Om detta stämmer är nog en fråga om perspektiv. Desto mer intressant är att fråga sig vad som händer i en akut ekonomisk kris, när det inte längre finns någon som kan betala notan. Här framstår alltså internets kollaps snarast som ett integrerat moment i kapitalismens utdragna kris. Och om internet till stora delar fallerar, kommer detta såklart att få återverkningar på den ekonomiska aktiviteten i världen.

3. Nätet är sårbart för sabotage och “cyberkrig”
Här handlar det om de faktorer som redan diskuterats i föregående inlägg. Lägg till detta de allra senaste spekulationerna om ryska sabotage mot infrastruktur i Sverige
Nätet präglas av en synnerligen låg resiliens, menar Thomas Grüter. Vilket också är ett påstående som kan diskuteras.

Ser fram mot kommentarer på alla de olika kollapsscenarier för internet som nu har presenterats och på hur de hänger samman, eller inte hänger samman, såväl med varandra som med andra kristeorier.

5 kommentarer ↓

#1 kjell on 2 March 2015 at 4:06 pm

…fast man byggde upp ett telefonnät (där faxapparaten fick plats), med atlantkabel samt ett grenverk öster och söderut som har fungerat väl. På tekniksidan utvecklade Ericsson AXE- systemet som faktiskt revolutionerade “enkelheten” med noder över hela världen. Med den “nya” tekniken har man byggt vidare, det är klart vid en naturkatastrof eller krig kommer det fallera men man finner vägar att gå runt.
Jag är optimist trots de “begränsningar” som vissa traktar efter.

#2 Ajvar Relish on 4 March 2015 at 11:06 am

Tillför kanske inget bortom punkt 2 och resurskris, men ändå fascinerande siffror att begrunda: http://science.time.com/2013/08/14/power-drain-the-digital-cloud-is-using-more-energy-than-you-think/

#3 Mangan on 4 March 2015 at 3:23 pm

De öppna och globalt delade standarderna är på ett sätt internets akilleshäl. En webbläsare, ett operativsystem eller en mukvara som ska användas för bärande funktioner på webben måste i stort sett vara byggd för att kunna hantera allt som tekniskt sett förekommer på nätet (i hela världen) vid den tid då de släpps eller uppdateras, även om många av oss ytterst sällan använder hela vidden av denna funktionalitet – det går inte att sätta upp alltför många olika versioner i butiken. Därmed blir gamla versioner av program och webbläsare med tiden fyllda av säkerhetshål, eftersom arkitekturen i ett program eller i ny teknik hela tiden komer att sikta på att handskas med *nya* heta plugins och standarder som kommit till.

Det finns så att säga ingen reell möjlighet om du köper din nästa dator och bedömer att “ja, jag kommer ändå inte att behöva den senaste tekniken och mjukvaran för att spela Fallout och liknande tunga datorspel, skypa och vpn-a eller ansluta en 4G-mobil via bredbandet nmär jag vill” att köpa en folkvagnsdator som tekniskt sett är 6-7 år gammal (oberoende av om ny eller begagnad) men som kommer att tuffa på fint i tjugo år, ungefär som du kan köpa en bil av litet äldre modell därför att du inte tänker köra Dakarrallyt eller önskar att kunna åka i 160 knutar på Autobahn. Den sortens mid-rangesortiment eller begagnade bilar-klass finns inte i datorkonsumentens värld, inte om du bedömer maskinens och systemets kompetens snarare än enbart tekniska prestanda, och det finns inte heller någon fungerande andrahandasmarknad för gamla program, eller reserver i lager när det gäller datordelar, gamla drivrutiner, delar till kompatibla skrivare och modem och liknande. Den som ska köpa en ny maskin tvingas i praktiken att köpa en med OS och maskinvara från de senaste tre-fyra åren om han/hon ska vara hyfsat säker på att det går att använda (och har begränsad erfarenhet av att detaljerat konfigurera eller bygga om, och inte har några säkra datorservicemänniskor och geeks i vänkretsen). Utvecklingens egen dynamik gör att flertalet i en region kommer att ha datorer med liknande standard, och att premiera säkerhet över en del av de mera flådiga egenskaperna och access till precis alla program och protokoll, det finns i realiteten inte på bordet.

Och det finns inte heller någon möjlighet för t ex regeringar, den akademiska världen eller ICANN att tvinga datorföretag och mjukvaruföretag att hålla uppe backward compatibility på lång sikt, typ tjugo år framåt i tiden på det de byggt eller sålt efter säg 2009. Vilken regering skulle trycka upp Microsoft, Lenovo eller Google mot väggen på det sättet och t ex kräva ett bindande löfte att Gmail ska förbli användbart i sina viktigaste funktioner för alla som har datorer byggda de senaste åren, ännu tjugo år framåt i tiden, utan att de behöver uppgradera sina system eller sina webbläsare? För bilar och båtar vore något sådant en säkerhetsfråga eller en viktig standardfråga där företaget skulle kunna bli illa åtgånget om det avvisar kraven, men i datorvärlden vet alla att det kommer att rinna många uppdateringar under broarna, på många olika fronter, och att sidors läsbarhet, säkerhet eller utskrivbarhet efter hand ofta kräver nya system eller nya webbläsare.

#4 UddaBoktips on 9 March 2015 at 1:53 pm

En debattör som utan noggrann motivation säger att “Nätet präglas av en synnerligen låg resiliens” förtjänar nästan inte att tas på allvar.

Ok att internet idag kanske inte fungerar exakt som DARPA tänkte sig men det är ju designat precis för att vara robust under yttre påfrestningar.

#5 bananders on 9 March 2015 at 2:59 pm

Nätet är designat för att vara robust under yttre påfrestningar, men nog är det så att nätet så som det fungerar idag har en förvånansvärt låg resiliens – just med hänsyn till hur tanken var från början. Vid ett större strömavbrott kommer både fast och mobilt bredband att sluta fungera ganska snart. Viss nätverksutrustning har batteribackup, men om inte all utrustning har det, inklusive den egna hemmaroutern, så är man avskuren. Dagens internet har betydligt lägre resiliens än till exempel det traditionella telefonnätet som trots att det teoretiskt var mer sårbart med sin centraliserade design, i praktiken var betydligt bättre skyddat med reservkraft m.m. Internet är också beroende av fler komponenter ska funka samtidigt. Härom året slutade nästan hälften av svenska webbsajter att funka på grund av en brand i Västerås. Väldigt många hade sin DNS hos Loopia, och backupen påverkades av samma brand. Det finns fler exempel.

Kommentera