Entries from June 2014 ↓

Krisen, del 143: Fronesis!

Nya numret av Fronesis har tema KRIS. Redaktionen uttrycker en strävan att gå bortom de avskilda diskussionerna om den ekologiska krisen (klimat och naturresurser), ekonomins kris (skuld och arbetslöshet) och demokratins kris (postpolitik och övervakning). Strävan är i stället att förstå dessa kriser som sammanlänkade uttryck för en övergripande systemkris. Med andra ord tycks det vara rekommenderad läsning för alla som har följt krisserien här på Copyriot.

“Värdekritisk kristeori – att tänka kapitalets sammanbrott”. Så lyder rubriken för mitt bidrag till detta krisnummer av Fronesis. Det handlar om alltså den förståelse av produktivkrafternas utveckling som lades fram av Robert Kurz i en banbrytande artikel från 1986, för att sedan utvecklas av en rad närstående teoretiker, främst i det tyska språkområdet. Jag diskuterar åter den utmaning som ligger i att tänka kapitalets sammanbrott utan att fastna i den traditionella marxismens hjulspår.

Artikeln kan läsas som en fortsättning på de två tidigare tidskriftsartiklar där jag försökt att presentera olika aspekter av den Wertkritik som förknippas med namn som Robert Kurz. Dessa artiklar finns återpublicerade i Tapirskrift. Jag tänker lägga upp allesammans på nätet inom kort. Men först vore det spännande om fler ville diskutera innehållet i nya Fronesis. Se till att skaffa den!

Exakt vad är det som Netclean ska blockera i Turkiet?

För tio dagar sedan bloggade jag om hur göteborgsföretaget Netclean tjänar storkovan på att inskränka yttrandefriheten i Turkiet. De har skrivit ett jättekontrakt med Turkiets regering, som vill få möjlighet att blockera “otillåtet” innehåll i sociala medier.

Netclean har utvecklat ett filterverktyg med syfte på att blockera barnpornografi. Men detta verktyg är givetvis möjligt att konfigurera även på andra sätt. Turkiska regimen gör allt tydligare att man är beredd att satsa stort på att utveckla metoder för politisk censur av nätet. Allt pekar på att betalningen av 40 miljoner euro till Netclean är ett led i dessa censurplaner.
Men från Netclean är det tyst. Mitt förra inlägg fick ganska bra spridning. Det ställdes direkta frågor till Netclean på Twitter. Fortfarande inget svar. Taktiken är att låtsas som att det regnar. Men det ger bara ytterligare indicier på att Netclean vet att de sysslar med att sälja censurverktyg till en brutal regim.

Netclean har gjort en jätteaffär med en stormakt. Pengarna de får verkar i ett slag flerfaldiga företagets omsättning. Allt de gått ut med är ett fåtal rader om att deras system har utvecklats för att blockera barnpornografi. Jo, så var det ursprungliga syftet. Men vi vill veta vad det aktuella systemet kan användas till. Vad är det som Netclean säljer till Turkiet?

Turkiets president har gjort en rad uttalanden om att han vill kunna avlägsna enskilda postningar på Twitter. Det må vara möjligt i teorin, men är ingen enkel sak. Nu ställer sig frågan: är detta vad Netclean har lovat Turkiet att göra?

En hacker som föredrar att vara anonym skrev följande rader för publicering på Copyriot:

Såvitt jag förstår bygger Netcleans filter på att identifiera förbjudet innehåll, som sedan kan stoppas vid “gränsen” till nätverket. Deras stora försäljningsargument är att de kan förhindra att barnpornografi ens kommer in i nätverket – inte bara att de kan identifiera att så sker och peka ut den skyldige.
De gör det här genom att identifiera “signaturer” av innehållet, med all sannolikhet någon form av hash-summa eller något slags beskrivning av själva bilden. Alla bilder som passerar filtreringsutrustningen jämförs med databasen av “signaturer”, och de bilder som identifieras som förbjudna levereras helt enkelt inte vidare.



För att stoppa barnpornografi i betydelsen att själv inte kunna lastas för att ens nätverk transporterat innehållet är det en otroligt effektiv och tilltalande metod. Själva bilderna behöver inte sparas någonstans och identifieringen blir betydligt mycket säkrare än via webbadresser eller bildnamn. Mycket tilltalande för företag och myndigheter som utan vidare censur och övervakning effektivt kan kontrollera sitt nätverksinnehåll med hög tillförlitlighet. Oavsett om bilden laddas ner via det vanliga nätet, delas med peer-to-peer-teknologi eller anländer bifogad till ett mail kommer den upptäckas och stoppas.



Om det som påståtts i turkisk media stämmer – att regeringen vill ha den här teknologin för att kunna förhindra spridningen av viss information via Twitter – är det kanske ett av de mest effektiva censurverktygen vi någonsin sett. Alla typer av bilder kan inkluderas i systemet, om Netclean nu gör det möjligt för sina “storkunder” att själva lägga till “signaturer”. Och det betyder att en given bild helt kan stoppas, även om den laddas ner och delas vidare eller sprids via olika bloggar och bilduppladdningstjänster. Det är censur helt oberoende av hur bilden levereras – ett stort steg upp från den rätt grovhuggna censur som erbjuds av Kinas “Great Firewall” eller Irans snabbrörliga punktcensur av webbadresser och IP-block.

Lite spekulativt borde det här kunna utsträckas till total, selektiv Twittercensur.

Eftersom Twitter både på webben och via API:er till olika appar levererar varje tweet som en individuell klump av JSON (JavaScript Object Notation, ett sätt att beskriva dataobjekt) kan tweets också tilldelas en “signatur” och stoppas. Detta utan att det märks för användarna – Twitters sätt att ta emot och visa nya tweets torde inte märka av ett eller flera saknade objekt i strömmen från servern.
 
Naturligtvis förutsätter det här att Netclean kan göra en så kallad “Man In The Middle”-attack på anslutningar till Twitter.

Av bland annat anti-censurskäl har Twitter infört strikt användning av SSL (HSTS) i alla sina tjänster, det vill säga krav på att anslutningen mellan användarens dator och Twitters servrar krypteras. Netcleans utrustning måste bryta den länken och agera mellanhand, annars kan den inte analysera trafiken som passerar. Det här kan tänkas vara enkelt för ett land som Turkiet tack vare att de har regeringskontrollerade utgivare av SSL-certifikat, men kompliceras av att moderna webbläsare som Chrome och Firefox innehåller listor över vilka certifikat till exempel Twitter använder, så kallad Certificate Pinning. Hur detta kommer lösas blir spännande att se.

Göteborgsföretag tjänar storkovan på att inskränka yttrandefriheten i Turkiet

Turkiet har länge tillämpat olika former av internetcensur, men senaste året har premiärminister Tayyip Erdoğan givit order om hårdare tag, framför allt mot Twitter. “Sociala medier har blivit till ett hot mot stater”, förklarade nyligen Turkiets överbefälhavare Necdet Özel.

I februari stiftades en ny lag som ger myndigheterna rätt att omedelbart blockera webbsajter, utan att behöva gå via domstol. Skäl till blockering kan vara att sajterna kritiserar landsfadern Atatürk, förolämpar myndigheter eller stödjer sådant som den turkiska staten har klassat som terrorism.

Nyligen rapporterades att Turkiets inrikesministerium köper in ett nytt system för att filtrera bort oönskat innehåll från Twitter. Enligt uppgift ska “illegala postningar” försvinna automatiskt inom fem sekunder. Mjukvaran för detta levereras av ett svenskt företag: Netclean i Göteborg, som kassar in hela 40 miljoner euro, alltså 360 miljoner kronor.

Christian Berg och gänget skrattar hela vägen till banken. Att exportera censurverktyg till polisstater verkar bli en strålande affär för Netclean – ett företag som startades med pengar från drottning Silvias stiftelse. Men det finns förvisso många detaljer som återstår att klarlägga kring exakt vad som Netclean säljer till Turkiet.

Nästa gång som det spills blod på gatorna under protester i Turkiet ska vi inte glömma vilka svenska intressen som profiterar på regimens repression. Huvudkontoret finns på på Första långgatan.

Uppdatering: Ett uttalande från Netclean fastslår att syftet med leveransen till Turkiet är att blockera dokumenterade övergrepp på barn. Men det är inte mjukvarans påstådda syfte som räknas, utan hur den kan användas. Ingenstans i uttalandet förnekar Netclean vetskapen om att deras produkt även kommer att användas till politisk censur.

Hur massiv övervakning möjliggör mjuk censur: exemplet Facebook

Följande inlägg är skrivet av Kristoffer (krl) och postades först på ett annat forum, men förtjänar en större läsekrets och ett kommentarsfält.

# # #

Vill skriva lite om en grej som jag tror piratbyrån var tidiga att prata om i termer av övervakning och kontroll. Nämligen ett bra sätt att tänka kring dessa ämnen.

När man tänker på t.ex Facebook och vad de gör med den massiva databas av allas privata kommunikationer och kontaktnät, så är det viktiga aldrig vad de har rätt att göra, eller ens vad de gör. Det viktiga är vad de kan göra.

Ett exempel är din så kallade FB-wall, där dyker det upp händelser från vänner och vänners vänner. Hur urvalet sker är höljt i dunkel. Alla som använder facebook utvecklar egna teorier och modeller, och man kan ha en känsla för ungefär hur det funkar, men man kan aldrig veta. Algoritmerna för urval ändras även ständigt.

Här är ett exempel på vad Facebook kan göra med detta.

När Facebook, eller någon med inflytande över Facebook, vill censurera en länk, en nyhetsstory eller vad som helst, så har de en väldigt stor spännvidd på möjlig censur och repression. Här är lite exempel:

1.
En sorts modulering som redan är inbyggd i själva like-systemet är att de artiklar/länkar som får mest likes är de som sprids.

Detta leder (antagligen) till att feelgood/positiva nyheter får större spridning än saker som är viktiga men oroande.

Om man tänker sig en uppsättning tidningsartiklar, som får sorteras utefter hur många likes de får, vs. samma uppsättning sorterat t.ex efter “detta tycker jag är viktigt” så får man helt klart två helt olika urval.

2.
En aktiv men mjuk censur är helt enkelt att vissa nyhetskällor helt enkelt inte sprids till andras väggar, eller sprids mycket mindre.

3.
Möjligheten att analysera dina sociala nätverk, och använda dina vänners vänner emot dig.

En artikel som Facebook vill undertrycka som du delar på din wall, kan helt enkelt visas endast för de i ditt nätverk som Facebook antar kommer att kommentarskriga emot den. Helt plötsligt har du vänners-vänner som samstämmigt fördömer det du postat, och det blir inflammerad skitkastning av alltihop.

4.
Den hårdaste, men också i mångt om mycket inte mest läskiga formen av censur är helt enkelt att de inte låter dig posta länken. Detta har hänt med The Pirate Bay-länkar t.ex.

Det viktiga är inte här vad facebook får göra (de får antagligen lagligt göra allt detta), eller vad de gör (mycket av detta görs dock redan helt klart), utan just vad de kan göra. Och den politiska kritiken måste utgå från att begränsa vad de kan göra, inte att ändra lagar eller privacy-inställningar.

Detta kommer antagligen att göra massövervakningssystem som facebook omöjliga, och det är något vi borde sträva mot.

Turingtesterna och varusamhället

Det blev lite uppståndelse i dagspressen om att en dator “klarat Turingtestet“. Genast följd av en andra uppståndelsebölja där de något mer insatta journalisterna förklarade att detta inte stämmer. Ett välbekant, välkoordinerat mönster som liknar en uppgörelse mellan dagspress och fackpress om att dela lika på den totala klickmängden.

Nyheten grundade sig i detta: en mjukvara för textkonversation fick chatta i fem minuter med ett antal brittiska domare. En betydande minoritet – var tredje domare – övertygades om att mjukvaran var en 13-årig pojke från Ukraina. Det fanns alltså på förhand en tydlig rollfördelning som inbegrep ett betydande avstånd i fråga om språk, kultur och ålder. Bevisningen är inte så värst stabil. Men… vad var det som skulle bevisas?

Som brukligt i dagens medielogik, dröjer det inte mer än ett par dygn innan vi serverats en tredje våg av lite mer resonerande kommentarer. Denna morgon fanns de P1:s Kulturnytt och SvD:s understreckare. Dessa kommentarer driver i typfallet ingen tydlig tes. I stället staplas frågor som till sin karaktär är öppna, även om den journalistiska formen föreskriver att frågorna ska formuleras binärt:

Men säger det här testet, som utformades 1950 av kodknäckaren och datorpionjären Alan Turing, att datorerna verkligen börjar likna oss människor – eller är det snarare tvärtom? Att vi liksom maskinerna nu helst kommunicerar på max 140 tecken?

Nicklas Lundblads understreckare rymmer ansatser till en intressant “AI-kritik”, i det att han belyser gränserna för de situationer där artificiell intelligens studeras. I detta fall fanns alltså en tidsgräns (fem minuters konversation), en kulturell gräns (“13-årig pojke från Ukraina”) och inte minst ett begränsande medieformat (text). Lundblad fortsätter:

I förlängningen av denna invändning ligger en annan större invändning, /…/
En växande andel kognitionsvetare och filosofer anser nu att tänkandet inte kan abstraheras från kroppsligheten, och att det verkliga testet vore att undersöka om vi behandlar en robot som en människa – om vi bemöter den med en attityd till en själ, som Wittgenstein var inne på. Kanske kan det vara så att endast en kropp kan tänka.

Kanske – för att vända på steken – kan det vara så att “tänkande” och “intelligens” är begrepp som definierats av kroppar. Att det i slutändan är meningslöst att försöka definiera loss dem från de människokroppsliga neuronerna. Alan Turing insåg detta. Hans legendariska uppsats från 1950, där han presenterar ett hypotetiskt test, klargör från början att det inte handlar om maskiner som kan “tänka”, utan om att imitera tänkande.

Att påstå att en dator eller ett datorprogram i definitivt mening har “klarat Turingtestet” är meningslöst. Testet äger bara relevans inom ramarna för en given situation. Det finns alltså inte ett Turingtest utan oändligt många. Häri ligger också dess betydelse.

Nätet är fullt av filtermekanismer som är praktiska tillämpningar av Turingtester. Jag tänker alltså på spamfilter och “captchas“. Syftet med dessa är att skilja mellan mjukvara och människor. De fungerar aldrig till hundra procent och de har sporrat en fantastisk uppfinningsrikedom bland sådana som av någon anledning vill automatisera processer som inte “får” automatiseras. Likväl funkar de ganska bra. Genom att de ständigt förfinas, upprätthåller dessa tekniker en relativt hög tröskel mellan människa och maskin.

Ett företag som Google vore otänkbart utan sådana trösklar. De nöjer sig inte med att passivt se på när robotarna finner vägar runt olika Turingtester. Om de vill ha en tröskel någonstans, så skapar de helt enkelt en ny situation som tillåter en sådan tröskel. Om de inte vill ha en tröskel utan tvärtom vill släppa fram robotarna, så anpassar de situationen för detta. Genom sådana modulationer ser Google till att återskapa förutsättningarna för att sälja sina varor (reklam) och få tillgång till sina råvaror (beteendedata), till priser som låter dem ta ut en vinst. Och det gäller såklart inte bara Google.

Turingtestet är sedan länge en integreral del i varusamhället. Ett varusamhälle som knappast kommer att slås i bitar av att ett datorprogram lyckas imitera en 13-årig chattare från Ukraina.