Från 1930-talets “maskinkultur” till vad vi på 2010-talet kallar “artificiell intelligens”

En kväll förra veckan satt jag i Sigtuna och bläddrade igenom ett kuvert med svenska pressklipp från åren 1931 och 1932. Gemensamt för de utklippta artiklarna var att de berörde ämnet “maskinkultur”. Ingenting låg mer i tiden. Ingenting var heller mer svårfångat. Just därför kunde det bokstavligen skrivas spaltmeter som “maskinkulturen”, påfallande ofta under den fantasilösa rubriken “Människan och maskinen”. Flera av Sveriges större förlag lanserade titlar i ämnet nästan samtidigt. Alf Ahlberg höll föredrag om hur “maskinkulturen tar död på personligheten”, och så vidare.

I efterhand är det alltid lätt att skratta åt historiska exempel på onyanserad civilisationskritik. Eller för den delen åt motsatsen, det vill säga onyanserade hyllningar till det nya tekniska förnuftet, som det också fanns gott om exempel på vid samma tid (exempelvis Technocracy-rörelsen som fick sitt offentliga genomslag just år 1932). Men om man tittar närmare på vad som faktiskt skrevs, framstår polariseringen delvis som en retorisk konstruktion. De flesta och tyngsta opinionsbildarna såg sig själva som synnerligen nyanserade. De sökte placera sig själva i mitten och behövde just därför hänvisa till existensen av de två ytterligheter.

Ett utmärkt exempel ges av konstkritikern Gotthard Johansson, som även var funktionalismens främste förkämpe i svensk debatt. I en understreckare hösten 1932 recenserade han två av de aktuella böckerna om maskinkulturen och inledde med att lite karikatyrartat peka ut två ytterlighetspositioner. Å ena sidan de som ser maskinen som en demonisk kraft (och som paradoxalt nog ofta är välbeställda människor som själva äger aktier i industriföretag, enligt Johansson). Å andra sidan “maskindyrkarna”, som ser maskinen som “befriaren ur mänsklighetens nöd” (och som tydligast företräds av “radikala proletärskalder”, vilket Johansson fann lika paradoxalt).

Ytterligare en som sökte efter den nyanserade mittenpositionen var författaren Henry Peter Matthis, som skrev under rubriken “Maskinskräcken. Varning för falska idealister”:

Mest primitiva äro de idealister o.s.v. som gå omkring med sin maskinskräck och tala om ’tillvarons mekanisering’. /…/
Men den andra romantiken, den moderna naturmystiken – vår maskindyrkan – är också en kulturbrist.

Här är det lätt att se paralleller till vårt eget årtionde, som inleddes med en omfattande debatt om “digitaliseringen” – ett begrepp med ungefär lika svävande innebörd som “maskinkulturen” hade på 1930-talet. Då som nu fördes debatten i kölvattnet av en djup ekonomisk kris. Jag citerar mig själv ur det nyligen utgivna bokkapitlet “Nätutopier och nätdystopier“:

Finanskrisens utbrott år 2008, med efterföljande nedgång i den globala ekonomin, framstår i efterhand som en vattendelare i mediedebatten. Fallande annonsintäkter för dagspressen skapade en oro som färgade av sig även på spalternas innehåll. Hela perioden från 2008 till 2012 präglades av en stor öppenhet där nyfikenhet och skepsis bröts mot varandra i en livlig debatt. Från 2010 satte den nätpessimistiska litteraturen tydliga avtryck i svensk kulturdebatt, där många skribenter sökte sig mot en föregivet nyanserad mellanposition.

Men åter till 1932 och “maskinkulturen” – ett ord som då framstod som en paradoxal sammansättning, vilket gav en retorisk laddning som kan vara svår att uppfatta idag. Samma sak gäller begreppet “kulturindustri”, som skulle myntas 1944 av Adorno och Horkheimer, men vars innebörd var en annan. Upplysningens dialektik gav heller inget utrymme för något så odialektiskt som föregivet nyanserade mellanpositioner – enda utvägen gick genom ett upphävande av det historiska sammanhang som har konstituerat såväl “kultur” som “industri”.

Tvärtemot detta, tog Henry Peter Matthis sin utgångspunkt i ontologin. Det förde honom till en slutsats som nog klingar mer profetiskt för oss än vad han själv kunde inse. Så här skrev han 1932, om begreppet maskinkultur:

Kultur är ju odling, och maskin är redskap. Odling sker med redskaps hjälp /…/
När människan utvecklar redskapen till maskiner /…/ – kan det då uppstå något som varken är natur eller av människan skapat kultur? Något som redskapen, maskinerna på egen hand frambragt? – Detta skulle vara maskinkultur.
/…/
Tillvaron kan inte mekaniseras. Livet är härligt sprudlande av natur mitt i storstaden. /…/
Maskiner kunna ersätta många händer men inga tankar.
När det finns tankemaskiner – då blir maskin-kultur verklighet.
Till dess kunna vi tryggt tro på livet, älska naturen och arbeta vidare på kulturen.

Maskinen och kulturen kunde alltså leva sida vid sida i harmoni, menade Henry Peter Matthis. Åtminstone tills den tidpunkt “när det finns tankemaskiner”, för rivs en gräns, är det slut på harmonin, finns skäl att lyssna på olyckskorparnas ord!

Det vill säga nu?

“Artificiell intelligens” är ännu ett begrepp med svävande innebörd, som dessutom vinner retorisk kraft genom sin lätt paradoxala klang – inte helt olikt “maskinkultur”.

Efter andra världskriget föll begreppet “maskinkultur” ur bruk, även om det fortsatt att skrivas oräkneliga artiklar under den lika tid- som fantasilösa rubriken “Människan och maskinen”.
På samma sätt är det nog troligt att begreppet “digitalisering” snart faller ur bruk, liksom så småningom begreppet “artificiell intelligens”. (Jag minns att jag nyligen ögnade en text som på intressant sätt ifrågasatte själva AI-begreppet, men tyvärr hittar jag inte tillbaka till den.)

Alla dessa begrepp syftar på någonting verkligt, men på ett svävande sätt som vittnar om en bristande förmåga att sätta teknisk utveckling i sitt större sammanhang. Resultaten blir varje gång samma polarisering mellan ytterpositioner, som delvis är en chimär, frammanad av dem som vill tala utifrån en perfekt balanserad mittenposition. Vilket sällan resulterar i någon tankeverksamhet av betydelse.

10 kommentarer ↓

#1 Anders Bananders on 27 February 2018 at 10:48 am

Kanske var det den här artikeln du läste?

#2 Björn Nilsson on 27 February 2018 at 2:04 pm

Det som kom omkring 1950 i stället för “kultur” var i stället den s.k. trivseldebatten. Det fanns gott om jobb, lätt att byta sig bort från trista och kanske farliga/slitsamma tempojobb där arbetaren var som en förlängning av maskinen. Fack och företag och politiker tvingades för en tid ta hänsyn till det. Nu är väl tempojobben tillbaka, fast ännu mer djävliga – exempelvis lagerjobbare som har en dator som håller exakt koll på vad de gör och talar om för dem när de skall göra det.

#3 Andreas on 2 March 2018 at 9:35 pm

Tanken att maskinerna (AIn) skulle delta i och skapa egna kulturer, eller ens vara aktörer i mänsklig kultur på något intressant sätt utöver vad artefakter redan är idag, känns helt frånvarande från de som idag teoretiserar kring “stark” AI (som möjlighet, hot eller både och). Samtidigt som idén at AI kan bli självmedveten (vad nu det exakt innebär) är extremt central. Känns lite kartesianskt, för att använda ett uttjatat epitet. Frågan är om medvetande kan existera utan kultur (utan att för den skull förutsätta att något av de båda måste uppstå “först”).

En intressant observation är att de som gör störst framsteg inom att skapa människolika robotar jobbar mycket med premissen att robotarna ska socialiseras in i mänsklig kultur. Det är ingen slump att de flesta prototyprobotar är gulliga, tanken bakom har varit att om robotarna framstår som barn så kommer människor omkring dem att behandla dem som barn, dvs vara övertydliga med våra intentioner och på så vis underlätta deras möjligheter att lära sig förstå både oss och sin omvärld. Men det är en metod som ligger långt från idén att maskinen ska simulera sig fram till ett övermänskligt medvetande genom blixstsnabb trial-and-error, som verkar vara modellen som tänkare som Nick Bostrom föreställer sig.

Intersektionen mellan de som tror på övermänsklig, självmedveten AI och de som jobbar med att enkulturera robotar är nog nära noll.

#4 Alaoglu on 3 March 2018 at 12:07 am

Andreas: Frågan om “stark” AI eller ifall maskiner kan bli “självmedvetna” är helt skild från frågan om A(I)pokalyps à la Bostrom; vad spelar det för roll om maskinen som bygger om jorden till en hög gem är (själv)medveten eller inte?

[Centralkommittén mot begreppsanglofiering meddelar för övrigt att den mängdteoretiska operatorn på svenska heter: snitt]

#5 Andreas on 3 March 2018 at 3:13 pm

Alaoglu: Det är olika frågor åtminstone såtillvida att ingen riktigt vet vad som krävs av en sådan AI. Men: vad krävs för att gem-maskinen ska kunna förutse konsekvenserna av att människorna drar ut sladden och förstå att förhindra detta innan det händer? Jag tycker inte att det är orimligt att tänka sig att svaret på den frågan, vad det nu i detalj kommer att vara, skulle komma att kallas just självmedvetande.

Det var dock inte apokalypsscenariot i första hand som jag tänkte på. Den rad av tänkare som intresserar sig för möjligheten till AI-singularitet (apokalyptisk eller ej) tenderar också prata om medvetande som en del av det paketet av intelligenta funktioner som maskinerna ska ha, och de brukar nappa på betet när skeptiker ifrågasätter just rimligheten i medvetna maskiner (en ganska vanlig “stark AI”-skeptisk ståndpunkt som brukar tas upp, om än kanske inte den mest intressanta).

Min poäng var väl mest att det finns också de som faktiskt försöker skapa maskiner som ska kunna vara del av en kultur, men dessa är inte samma personer som pratar om singularitet (vilka också, oftare än inte, pratar om medvetande hos maskiner).

[Säger jag snitt så tänker många svenskar medelvärde, så jag tror inte det underlättar kommunikationen tyvärr… :) ]

#6 Alaoglu on 3 March 2018 at 5:51 pm

Gemmaskinen behöver inte “förstå” konsekvenserna av någonting: det räcker gott med att den arbetar på ett sådant sätt att människor inte kan stoppa den när gemproduktionen väl är igång.

#7 Andreas on 4 March 2018 at 4:56 pm

Alaoglu: Jag skrev “förutse konsekvenserna”, men “förstå att” mest som i “att agera på ett sätt och inte på ett annat på grundval av viss information” (vilket vi nog kan säga att även o-intelligenta maskiner kan).

Men jag tror du argumenterar på sidan av min fråga om medvetande hos gemmaskinen (som alltså inte var min ursprungliga poäng utan sidospåret som du lyfte och som jag spann vidare på). Som jag förstått gemmaskin-tankeexperimentet är väl poängen just att maskinen själv kommer att behöva simulera alla möjliga konsekvenser av att människor försöker stoppa den, och själv agerar för att avvärja alla de möjligheterna, utan att någon (ond eller obetänksam) programmerare redan identifierat alla dessa scenarier och gett den de relevanta rutinerna. Det är alltså inbyggt i exemplet BÅDE att den “arbetar på ett sådant sätt att människor inte kan stoppa den” (vilket den i prinicip skulle kunna göra utan “egen” intelligens) OCH att den kommit fram till detta sätt att arbeta själv utan att det var dess skapares intention (vilket är vad som kvalificerar programmet som en AI i detta fall). Det jag menar är alltså att det är möjligt att (empirisk OCH outredd teoretisk fråga, vi vet inte) det sätt på vilket den kan göra detta på kommer att bero av funktioner som åtminstone funktionellt liknar mänskligt självmedvetande. Detta eftersom maskinen tycks behöva sätta sin egen agens och existens i relation till inte bara omedelbart tänkbara händelser i omvärden, utan också vad andra agenter med egna planer och mål som inte sammanfaller med de egna kan tänkas göra mot den. Vi vet för lite om både djurs medvetande och maskiners potential för att svara på den frågan, jag ser idag inget sätt att besvara den apriori. (Däremot frågan om vi ska kalla detta för medvetande eller zombie-medvetande är mindre viktig, jag är mer intresserad av “funktionen” självmedvetande än hur den medvetna maskinen eventuellt upplever sin tillvaro.)

Alaoglu: Jag skrev “förutse konsekvenserna”, men “förstå att” mest som i “att agera på ett sätt och inte på ett annat på grundval av viss information” (vilket vi nog kan säga att även o-intelligenta maskiner kan).

Men jag tror du argumenterar på sidan av min fråga om medvetande hos gemmaskinen (som alltså inte var min ursprungliga poäng utan sidospåret som du lyfte och som jag spann vidare på). Som jag förstått gemmaskin-tankeexperimentet är väl poängen just att maskinen själv kommer att behöva simulera alla möjliga konsekvenser av att människor försöker stoppa den, och själv agerar för att avvärja alla de möjligheterna, utan att någon (ond eller obetänksam) programmerare redan identifierat alla dessa scenarier och gett den de relevanta rutinerna. Det är alltså inbyggt i exemplet BÅDE att den “arbetar på ett sådant sätt att människor inte kan stoppa den” (vilket den i prinicip skulle kunna göra utan “egen” intelligens) OCH att den kommit fram till detta sätt att arbeta själv utan att det var dess skapares intention (vilket är vad som kvalificerar programmet som en AI i detta fall). Det jag menar är alltså att det är möjligt att (empirisk OCH outredd teoretisk fråga, vi vet inte) det sätt på vilket den kan göra detta på kommer att bero av funktioner som åtminstone funktionellt liknar mänskligt självmedvetande. Detta eftersom maskinen tycks behöva sätta sin egen agens och existens i relation till inte bara omedelbart tänkbara händelser i omvärden, utan också vad andra agenter med egna planer och mål som inte sammanfaller med de egna kan tänkas göra mot den. Vi vet för lite om både djurs medvetande och maskiners potential för att svara på den frågan, jag ser idag inget sätt att besvara den apriori. (Däremot frågan om vi ska kalla detta för medvetande eller zombie-medvetande är mindre viktig, jag är mer intresserad av “funktionen” självmedvetande än hur den medvetna maskinen eventuellt upplever sin tillvaro.)

Vad som dock blir tydligt i resonemanget ovan, baserat på det extrema konfliktexemplet med gemmaskinen (som alltså inte var min utgångspunkt), är att (maskin)(själv)medvetandet förstått som ovan inte kommer att vara helt oberoende av andra medvetna agenter. Just konfliktsituationer är inte vad vi normalt lägger i begreppet kultur, men att däremot samarbeta mot ett gemensamt mål (eller mot olika men kompatibla mål) skulle nog normalt kallas en kulturell aktivitet (om alla som deltar är människor). Skillnaden mellan samarbete och konflikt känns hyffsat överblickbar utan att radikalt förändra begreppsapparaten. Det verkar också rimligt vänta att AI-forskningen under de närmaste åren kommer att jobba en hel del mot att få mer eller mindre intelligenta maskiner att samarbeta med människor (likt hur all teknologisk aktivitet gått ut på att skapa artefakter som “samarbetar”). Någonstans på vägen torde det bli relevant att försöka få maskinerna att inte bara representera människor omkring dem samt dem själva som agenter, utan också att nyttja denna kunskap (eller vad vi väljer att kalla det) till att lösa problem bättre. Det är troligt att självmedvetande som vi känner det innebär en hel del utöver detta, men det jag beskriver laddar både mot begreppet kultur och mot möjligheten att maskiner formulerar egna mål på det sätt som AI-apokalypstänkarna föreställer sig.

En viktig skillnad mot Matthis maskinkultur-begrepp som Rasmus citerar ovan är att Matthis pratar om maskiner som skapar egna kulturer (tilsammans med andra maskiner, får vi anta) oberoende av mänsklig kultur. Detta vore såklart något annat, medan mitt resonemang om maskiner som kulturella agenter nog ligger närmare de andra formuleringarna i Rasmus redogörelse – mänsklig kultur där maskiner “deltar”. Arten och graden av maskinernas deltagande kan komma att ändras ganska mycket framöver, utan att vi för den skull kommer att få se någon singularitetsexplosion. Det kan visa sig bli nog så revolutionerande.

En viktig skillnad mot Matthis maskinkultur-begrepp som Rasmus citerar ovan är att Matthis pratar om maskiner som skapar egna kulturer (tilsammans med andra maskiner, får vi anta) oberoende av mänsklig kultur. Detta vore såklart något annat, medan mitt resonemang om maskiner som kulturella agenter nog ligger närmare de andra formuleringarna i Rasmus redogörelse – mänsklig kultur där maskiner “deltar”. Arten och graden av maskinernas deltagande kan komma att ändras ganska mycket framöver, utan att vi för den skull kommer att få se någon singularitetsexplosion. Det kan visa sig bli nog så revolutionerande.

#8 Andreas on 4 March 2018 at 4:58 pm

EDIT – markerade slarvigt vilket ledde till en post med upprepningar. Här kommer den igen, post nr 7 ovan kan tas bort. Ursäkta.

Alaoglu: Jag skrev “förutse konsekvenserna”, men “förstå att” mest som i “att agera på ett sätt och inte på ett annat på grundval av viss information” (vilket vi nog kan säga att även o-intelligenta maskiner kan).

Men jag tror du argumenterar på sidan av min fråga om medvetande hos gemmaskinen (som alltså inte var min ursprungliga poäng utan sidospåret som du lyfte och som jag spann vidare på). Som jag förstått gemmaskin-tankeexperimentet är väl poängen just att maskinen själv kommer att behöva simulera alla möjliga konsekvenser av att människor försöker stoppa den, och själv agerar för att avvärja alla de möjligheterna, utan att någon (ond eller obetänksam) programmerare redan identifierat alla dessa scenarier och gett den de relevanta rutinerna. Det är alltså inbyggt i exemplet BÅDE att den “arbetar på ett sådant sätt att människor inte kan stoppa den” (vilket den i prinicip skulle kunna göra utan “egen” intelligens) OCH att den kommit fram till detta sätt att arbeta själv utan att det var dess skapares intention (vilket är vad som kvalificerar programmet som en AI i detta fall). Det jag menar är alltså att det är möjligt att (empirisk OCH outredd teoretisk fråga, vi vet inte) det sätt på vilket den kan göra detta på kommer att bero av funktioner som åtminstone funktionellt liknar mänskligt självmedvetande. Detta eftersom maskinen tycks behöva sätta sin egen agens och existens i relation till inte bara omedelbart tänkbara händelser i omvärden, utan också vad andra agenter med egna planer och mål som inte sammanfaller med de egna kan tänkas göra mot den. Vi vet för lite om både djurs medvetande och maskiners potential för att svara på den frågan, jag ser idag inget sätt att besvara den apriori. (Däremot frågan om vi ska kalla detta för medvetande eller zombie-medvetande är mindre viktig, jag är mer intresserad av “funktionen” självmedvetande än hur den medvetna maskinen eventuellt upplever sin tillvaro.)

Vad som dock blir tydligt i resonemanget ovan, baserat på det extrema konfliktexemplet med gemmaskinen (som alltså inte var min utgångspunkt), är att (maskin)(själv)medvetandet förstått som ovan inte kommer att vara helt oberoende av andra medvetna agenter. Just konfliktsituationer är inte vad vi normalt lägger i begreppet kultur, men att däremot samarbeta mot ett gemensamt mål (eller mot olika men kompatibla mål) skulle nog normalt kallas en kulturell aktivitet (om alla som deltar är människor). Skillnaden mellan samarbete och konflikt känns hyffsat överblickbar utan att radikalt förändra begreppsapparaten. Det verkar också rimligt vänta att AI-forskningen under de närmaste åren kommer att jobba en hel del mot att få mer eller mindre intelligenta maskiner att samarbeta med människor (likt hur all teknologisk aktivitet gått ut på att skapa artefakter som “samarbetar”). Någonstans på vägen torde det bli relevant att försöka få maskinerna att inte bara representera människor omkring dem samt dem själva som agenter, utan också att nyttja denna kunskap (eller vad vi väljer att kalla det) till att lösa problem bättre. Det är troligt att självmedvetande som vi känner det innebär en hel del utöver detta, men det jag beskriver laddar både mot begreppet kultur och mot möjligheten att maskiner formulerar egna mål på det sätt som AI-apokalypstänkarna föreställer sig.

En viktig skillnad mot Matthis maskinkultur-begrepp som Rasmus citerar ovan är att Matthis pratar om maskiner som skapar egna kulturer (tilsammans med andra maskiner, får vi anta) oberoende av mänsklig kultur. Detta vore såklart något annat, medan mitt resonemang om maskiner som kulturella agenter nog ligger närmare de andra formuleringarna i Rasmus redogörelse – mänsklig kultur där maskiner “deltar”. Arten och graden av maskinernas deltagande kan komma att ändras ganska mycket framöver, utan att vi för den skull kommer att få se någon singularitetsexplosion. Det kan visa sig bli nog så revolutionerande.

#9 Alaoglu on 5 March 2018 at 1:49 am

Eftersom jag tycker det är ett dåligt exempel ska jag inte försöka mig på att uttyda vad Bostroms poäng med gemmaskinen är, men det krävs ju ingen simulering eller förståelse för att ett sådant scenario ska inträffa; ett av de mest uppenbara sätten för maskinen att producera fler gem är att bygga en kopia av sig själv (och dubbla produktionen), några iterationer senare av denna process har vi plötsligt en jävla massa gemmaskiner…kanske tillräckligt många för att mänskligheten ska få svårt att utrota dem (eller ens hålla antalet under kontroll), men helt utan att det nånsin planerades för eventuella mänskliga motåtgärder.

När det gäller intelligenta maskiners förmåga att integreras i mänsklig kultur kan man ta en titt på följande konversation som utspelades mellan två experimentalla förhandlingsbotar hos Facebook:

Bob: i can i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i i can i i i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i . . . . . . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i i i i i everything else . . . . . . . . . . . . . .
Alice: balls have 0 to me to me to me to me to me to me to me to me to
Bob: you i i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to

Att prototyprobotar som marknadsförs som intelligenta tenderar att försöka vara gulliga är väl för att det nästan bara är i Japan man sysslar med det?

#10 Andreas on 5 March 2018 at 9:31 pm

Alaoglu: Jag säger inte emot något av det du skriver. Det finns massor av möjliga sätt på vilket en “intelligent” maskin kan ställa till problem, vissa intressantare än andra (poängen med tankeexperiment). Självmedvetande-som-leder-till-preemptive-strike är ett av de mer spektakulära som diskuterats, bland annat av Bostrom, men säkerligen inte den enda. Min frågeställning handlade mer om vad som krävs för medvetande än vad medvetande krävs för. Vad jag var ute efter kan sammanfattas i följande tre punkter:

1) Det finns ett gäng tänkare och AI-forskare som föreställer sig möjligheten att maskiner blir självmedvetna.
2) Det finns ett annat gäng tänkare och AI-forskare som pysslar med att utveckla robotar som ska kunna delta i mänsklig kultur.
3) Dessa människor pratar inte med varanda.

En orsak att till (3) är gissningsvis att de underliggande teorierna om kognition är väldigt olika, inget av lägren anser nog att det andra lägrets väg är intressant eller ens framkomlig.

Kommentera