tillbaka till startsidan

21. Hyperventilera i en påse

Lyssna på Spotify lyssna! Lyssna på iTunes

Therése har läst boken Technically Wrong av Sara Wachter-Boettcher och med den som utgångspunkt diskuterar vi bland annat problemet att utveckling i mångt och mycket utförs av vita män, varför mikroaggressioner är som buggar, vad intersektionalitet är och att anpassa sig för att inte hamna i ett fack. Dessutom en hel del om Antons privilegier och icke-risker samt att vidga sitt nätverk för att få ett bredare perspektiv, även om det inte alltid är bekvämt.

Om du gillar podden blir vi väldigt glada för en liten recension i iTunes eller en prenumeration på Spotify. Följ oss och säg hej på @asdfpodden på Instagram eller Twitter (Anton, Therése) <3

Länkar

Avsnittets skämt:

Vad dricker programmerarna när de ska ut och flyga?
Bash på terminalen
Skrapa här!!
Transkribering
Transkriberingen är gjord av nån "AI-grej". Du kan förbättra den genom att klicka precis här :)
00:00:00
Okej, det får nog bli på göteborska om jag kan framordna någon göteborska.
00:00:04
Shoot.
00:00:06
Vad dricker programmerarna när de ska ut och flyga?
00:00:12
Jag vet inte.
00:00:14
Bash på terminalen.
00:00:17
Jaha.
00:00:20
Gud, jag fattade inte först. Jag tänkte att skämtet skulle vara bash.
00:00:25
Jag trodde att det här var hela grejen.
00:00:29
Men när terminalen kom så...
00:00:31
Okej, jag är med. Det var ändå bra.
00:00:33
Det är ju bash, bash i terminalen.
00:00:37
Exakt.
00:00:39
Jag kopplade bara inte.
00:00:41
Bash, bash.
00:00:43
Så att säga.
00:00:45
För jag tänkte bara på det här utan terminalen.
00:00:47
Skitsamma.
00:00:49
Bra start, känner jag idag.
00:00:51
Trots att vi spelade in remote för första gången.
00:00:53
Vi spelar in remote för första gången. Jag vet inte om man ska avslösa det här, för det kanske påverkar folk som lyssnar.
00:00:57
Jag vet inte. Det är spännande. Det kan gå hur som helst känns det.
00:01:02
Det kan gå hur som helst.
00:01:04
Vi borde ta det här tillfället i akt att liksom dricka en liten drink samtidigt eller något.
00:01:08
Men vi tar det nästa gång.
00:01:09
Vi säger väl välkomna till ASDF-avsnitt någonting, någonting.
00:01:20
Ja, idag så funderade på vad vi skulle prata om.
00:01:25
Jag tänkte att vi kanske kunde prata om, jag läste precis ut en bok som jag lånade av dig,
00:01:31
som heter Technically Wrong.
00:01:33
Just det.
00:01:34
Och jag har verkligen glömt bort författarnamn och allt möjligt, men det kommer Anton länka sen.
00:01:43
Det handlar i alla fall om teknik och teknikens utveckling och de saker som tekniken kan ha missat i sin utveckling för att den utvecklas till stor del av en väldigt homogen grupp.
00:01:59
Och vad som kan ske, vilka utmaningar som finns och hur det påverkar den stora massan av människor som faktiskt inte är så homogen som kanske de som skapar tekniken har varit traditionellt.
00:02:13
Eller inte traditionellt, men nu för tiden.
00:02:16
Ja, jag har också läst den här boken fast det var ett tag sedan nu, det måste ju vara nästan ett halvår sedan eller något. Lite mer kanske till och med.
00:02:24
Den kanske inte är riktad till utvecklare egentligen.
00:02:29
- Nej, det känns mer som att den är riktad till resten av massan.
00:02:35
- Ja, exakt. Så man ska få en förståelse för vilken påverkan teknik har på de här ämnena.
00:02:44
På det här perspektivet.
00:02:46
Ja, den är ju också från några år sedan, typ 2017 eller någonting.
00:02:52
Och saker har ju skett sedan dess, men den tar ju upp ändå väldigt intressanta saker som är relevanta nu mer än någonsin, skulle jag säga.
00:03:01
Jag har ändå svagt minne av att, blandar jag ihop det här med någon annan bok kanske, att det är något stycke där de pratar om så här "Jag hoppas det blir bättre".
00:03:11
Ja, det vet jag inte.
00:03:14
Jag kanske blandar ihop den här med en annan bok som heter "Talk about race" för jag läste dem typ samtidigt så det kan vara därför.
00:03:22
Men jag har för mig att oavsett vilken bok det är så pratar de om så här "jag hoppas det är om tre år eller något, 2020 är det här att det är bättre då" och så ser man på allt runt omkring och det är mycket sämre.
00:03:35
Ja, men kanske de pratar om presidentvalet som precis skedde då 2016 och det har ändå ändrats nu.
00:03:45
Ja, det är väldigt nytt och fräscht så att säga.
00:03:50
Men ja, i alla fall, grundinnehållet skulle man väl ändå kunna säga att det är ju problematiskt att det är en förhållandevis homogen grupp.
00:04:04
Och med homogen grupp menar jag ju i stor del vita män som utvecklar alla typer av produkter.
00:04:11
Det kanske till och med är så att den grupperingen är de som behöver tänka minst på situationer och andra saker som kan uppstå eftersom de är högst på privilegiestegen.
00:04:31
Ja, men precis.
00:04:33
Det blir ju...
00:04:38
Ja, det får en ju direkt att komma in på och fundera på varför ser vår bransch ut som den gör.
00:04:49
Det är ganska intressant för vi pratade om det förr. Det visste vi ju att det var ju kvinnor som programmerade.
00:04:55
För det var ju ett väldigt kvinnligt yrke när det kom.
00:04:58
De var ju miniräknare och programmerare och datorer.
00:05:03
Allting vändes.
00:05:05
Det kom ju liksom från, alltså så här,
00:05:07
man gick från att vara sekreterare till programmerare, typ.
00:05:10
Ja.
00:05:11
Det vändes ju upp och ner när det kom datorer till hemmet.
00:05:16
Pratar man ju om historiskt för att det var så att de marknadsfördes
00:05:22
till män och pojkar.
00:05:25
Och där vände ju allting och
00:05:29
programmering och utveckling blev ju ett manligt yrke.
00:05:33
- Ja, det är ganska sjukt att tänka på det. Jag vet att det finns någon graf över
00:05:41
andelen kvinnliga utvecklare eller kvinnliga programmerare kanske.
00:05:44
Och det är så tydligt att det är
00:05:48
Först en stor majoritet som är det, och sen att det sjunker till nästan inga nivåer alls.
00:05:53
För att nu ändå vara lite på väg uppåt igen, även om det inte alls är på samma nivå som tidigare.
00:05:58
- Ja, det är intressant för jag hörde en paneldebatt där Melinda Gates ingick.
00:06:05
Där hon pratade om att när hon gick på utbildningen, Computer Science-utbildning,
00:06:10
det var liksom piken, var det 80-talet någonstans, det var piken av kvinnor.
00:06:16
Om vi nu ska säga en annan grupp som är kvinnor för tech, och det var piken av så många som utbildade sig då.
00:06:24
Sedan dess så har det bara gått neråt, tills det stagnerade någonstans här för några år sedan tror jag.
00:06:31
Ja, jag tycker det är jävligt, alltså det är svårt att förstå, man förstår ju att det är så.
00:06:43
Det gör man inte. För det finns så mycket som vägs in i det.
00:06:48
Det är på ett så pass strukturellt nivå att det är svårt att säga att det är på grund av det här.
00:06:54
- Ja.
00:06:57
Det är också...
00:06:59
Jag skulle vilja säga att det är den lågt hängande frukten att dela upp det i kvinnor och män också.
00:07:05
För att det är ju så mycket större egentligen.
00:07:09
Om man ska se det till homogena grupper, så är det en fördelning 50/50 mellan kvinnor och män.
00:07:16
Om alla fortsatt skulle vara vita människor så skulle det också vara en väldigt homogen gruppering som skulle missa ganska mycket andra saker.
00:07:27
Ja men exakt, för det är en ganska viktig del i det här att det är väldigt lätt att när man pratar om kvinnor så pratar man om vita kvinnor.
00:07:37
Som också är en grupp med makt ändå så att säga.
00:07:44
Jag har lärt mig jävligt mycket senaste året kanske främst, eller senaste två åren i alla fall.
00:07:53
Till exempel i den här boken som jag nämnde tidigare, "Do you want to talk about race?"
00:07:58
Och liksom intersektionalitet är liksom ingenting jag har tänkt på tidigare, det vill säga att
00:08:02
du kan liksom både vara
00:08:04
privilegierad
00:08:05
och drabbas av andras privilegier, så att säga.
00:08:09
Det är ju
00:08:13
det som är så intressant också, för det är så många när man börjar prata om det här ämnet, det blir väldigt svartvitt.
00:08:20
Antingen finns det kvinnor inom tech eller så gör det inte det.
00:08:23
Men man har inte en tanke på hela de här bitarna.
00:08:26
Och det blir också på något sätt som att...
00:08:28
Jag tänker att vissa kan känna att det blir som en attack på dem.
00:08:32
Kanske på dem som befinner sig i yrket och sådana saker.
00:08:35
Men det faktum är ju att...
00:08:40
Som man säger ofta...
00:08:42
Det är inte det att vi säger att ditt liv inte kan ha varit jobbigt eller haft utmaningar.
00:08:48
när vi pratar om att du eller någon har privilegier, utan det vi säger är att du har de här privilegierna.
00:08:57
Avsaknaden av dem har inte varit bidragande till dina utmaningar, så du har i alla fall sluppit i den biten.
00:09:04
Ja, men exakt. För det är många som när man pratar om det här som tänker "ja, men jag har jobbat hårt för mitt jobb, jag har slitit och jag har gjort det här och det där, liksom dittan i datten".
00:09:14
Och det har man ju säkert gjort.
00:09:16
Men det betyder ju då inte att andra kanske har slitit hårdare för att de också har behövt kämpa mot rasism eller sexism eller sådana saker.
00:09:26
Ja.
00:09:28
Så, ja, jag tycker det är lite jobbigt att ta upp det här ämnet i podden även om jag brinner väldigt mycket för det här ämnet.
00:09:40
Men det känns rätt minerat ibland, som ett minerat område som man inte riktigt vågar trampa runt hur som helst i.
00:09:47
Ja, jag har ju hamnat i den platsen att jag vågar prata om det.
00:09:55
Men jag tror att mycket har att göra med att jag har inte drabbats av att prata om det på något sätt.
00:10:02
I och med att jag kommer från en så pass privilegierad position som är vit, man, svensk, bra utbildad, höglön.
00:10:11
Jag har så mycket privilegier att jag drunknar nästan.
00:10:13
Men det gör ju också att risken för mig att prata om det här är minimal.
00:10:20
Jag skulle vilja säga att risken är lite högre för mig.
00:10:26
Ja, exakt.
00:10:27
Och då förstår man ju att du kanske tvekar lite mer att ta upp det i ett publikt forum som det här är.
00:10:36
Även om vi inte har någon miljonpublik så blir det ju ändå att man tar upp det i ett öppet forum så att säga.
00:10:46
Det där är ju ganska intressant. Om vi tar exempel att det inte finns så många kvinnor inom tech, eller det finns inte tillräckligt många, för att världens befolkning består hårtdraget av nära 50 procent.
00:11:06
Jag ska inte bara prata om binära kön, men alltså det är inte så snedfördelat i världens befolkning mellan kön kvinna och man.
00:11:15
Så att det borde vara så att det är en av tio eller vad det nu kan vara som jobbar inom den här branschen.
00:11:21
För att det spelar ingen roll vilket kön du har, du kan fortfarande programmera.
00:11:26
Och det blir väldigt intressant när man pratar om de här sakerna för att jag tror att det som inte alla förstår.
00:11:34
Man pratar väldigt mycket om att vi måste få in kvinnor i branschen och de måste tycka att det är kul att programmera.
00:11:42
Vi måste börja redan med barn och så vidare.
00:11:45
Det här är absolut jätteviktigt, men jag är rädd att vi så många missar poängen att vi ser inte att det är jättemånga kvinnor som lämnar tech.
00:11:55
Och det hjälper till att göra det snefördelat.
00:11:59
- Det är också en... lite bakgrund till det här vi pratar om är att jag...
00:12:04
...eller var med, men det var en diskussion på podcasten Kod Snacks Slack idag.
00:12:10
Behöver inte ta upp mer om det, men det var någon som nämnde i alla fall nu när du tog upp det här att
00:12:15
de hade uppfattningen av att ganska många kvinnor liksom
00:12:22
befordras ur utvecklarrollen. Eller liksom inte bara befordrat, men att man
00:12:28
gå vidare i karriären och då att man går ur utvecklarrollen oftare än vad män gör.
00:12:33
Det vill säga att du som kvinna helt plötsligt ska du vara team lead och ta hand om teamet mer än vad du ska knacka kod.
00:12:39
Ja, det där har jag också sett på många ställen och liksom varit med i diskussioner att det blir ofta så för att
00:12:47
på något sätt så räknas det helt plötsligt som den mera omhändertagande ett team kanske och då blir det en sån här
00:12:53
"Jo, men du som är så bra på att se folk och höra folk och ta hand om människor,
00:12:59
borde inte du ta den här rollen? Det fixar du, det är bra."
00:13:04
Och man uppmuntrar snarare de typerna av sidorna hos kvinnliga utvecklare
00:13:10
än att hjälpa till att ge dem ett tekniskt självförtroende
00:13:14
som kanske saknas vissa gånger.
00:13:16
Och det kanske också saknas på grund av miljö.
00:13:19
Jag har redan ett osäkert vokabulär, vilket gör att jag kanske inte går in med så stor pondus och samma tydlighet i tekniska diskussioner som andra.
00:13:34
Och om jag då blir avbruten eller inte lyssnad på, eller de förstår inte vad jag säger, de förstår inte vad jag menar, de avbryter mig.
00:13:46
Det kommer ju aldrig hjälpa mig att få ett tydligare tekniskt självförtroende, hur mycket teknik jag än kan.
00:13:52
Men jag kan inte förmedla det.
00:13:54
Nej, men precis. Och om man jämför med mig då, till skillnad som
00:13:58
tror att jag ofta går in med ganska mycket pondus i mina åsikter, även om
00:14:04
det finns ju något riktigt kastuttryck som heter "Strong opinions, loosely held" som jag inte riktigt håller med om, men det illustrerar ju att
00:14:11
jag kan ha ganska starka åsikter och jag, som vi talade om innan, riskerar ju ingenting om jag har det.
00:14:17
Alltså, det är ju ingen som kommer
00:14:19
för att jag har lite för starka åsikter. Visst att folk kanske inte gillar mig för det, men för mig personligen så är det ingen risk i det.
00:14:25
Nej, jag är ju snarare livrädd för att ha fel.
00:14:29
På ett sätt som inte är så att jag har så stor sårad stolthet att jag inte kan ha fel, utan för att det kostar mig mycket mer att ha fel hela tiden kanske i
00:14:43
ett team eller mitt yrke på min arbetsplats för att då måste jag börja jobba nerifrån igen och så måste jag jobba upp det.
00:14:51
Och så tappar jag varje gång någonting sånt händer.
00:14:54
Ja, men exakt.
00:14:56
Och det är liksom...
00:14:58
Jag vet inte, jag tycker det är så svårt att också sitta och jämföra på något sätt.
00:15:04
För jag kan ju liksom aldrig förstå din upplevelse i helt hållet, så det enda jag kan göra är att lyssna på något sätt också.
00:15:11
Medan för min del så är det liksom att jag är bara van med det jag har varit med om.
00:15:17
Vilket gör att det är så svårt för mig att sätta mig in i att det är så här det är.
00:15:23
Jag har ju tänkt på det här i många kontexter.
00:15:25
Det tog ganska lång tid innan jag förstod det här uttrycket "microaggression".
00:15:32
Jag vet inte hur man ska förklara det.
00:15:34
Men det är lätt att se att "det där kan du ju bara strunta i om det händer någon liten grej".
00:15:40
Medans i själva verket är den där lilla grejen bara en del av en stadig ström av saker som händer hela tiden.
00:15:48
Och det är liksom inte en upplevelse jag har, så det är svårt för mig att sätta mig in i när man märker från början att jag är uppmärksamma till det som händer.
00:15:56
Men det kan man väl bara skita i liksom. Det hade jag gjort om jag var med om den där lilla grejen.
00:16:01
Ja, det där är också väldigt vanligt och det pratar man om just det du säger.
00:16:07
Som microaggressions, det kan vara små saker som ingen annan märker eller som de inte ens själva märker att man gör.
00:16:13
Men jag hörde en liknelse som var väldigt bra och det är att om du har ett system som du vill använda som användare och så hittar du en bugg som är relativt liten.
00:16:24
Det kanske inte gör så mycket, du kanske jobbar runt den buggen och så fortsätter du göra det du ska.
00:16:29
Men om samma system har 100 små buggar, alltså inte stora, inte förödande buggar, men det är fortfarande 100 små jätteirriterande buggar,
00:16:39
då kommer du inte vilja använda det systemet. Det kommer bli mycket mer energikrävande för dig att göra det.
00:16:44
Den här liknelsen har du berättat för mig förut. Jag tycker den är så jävla bra för att förklara det här för utvecklare.
00:16:50
Det finns en hemsida som heter "The world's most annoying website" eller något sånt.
00:16:55
Du går in och ska fylla in en formulär, men du får cookie pop-ups och du ska signa upp för nyhetsbrev.
00:17:03
Det är lite buggy validering på inputfälten. Mycket småsaker.
00:17:09
Men det är svårt att ta sig igenom den hemsidan. Det är svårt att lyckas med uppgifter man ska göra.
00:17:16
Och när du drog den här liknelsen så började jag tänka på den sen, för det är liksom som en liknelse på att säga att det skulle vara livet.
00:17:23
Att det är det där fast med någonting annat som kan vara rasism eller sexism till exempel istället.
00:17:29
Och jag tycker den liknelsen är fruktansvärt bra.
00:17:32
Ja, jag tycker också det när jag hörde den. Det var så on point och det är ju precis så det känns.
00:17:38
Ibland när man pratar om så här, man kanske hör någon som säger "Blev jag avbryten nu för att jag är kvinna?"
00:17:47
Eller "Avbryter den här personen alla personer?" Då kan det vara någon som svarar "Nej, nej, den här personen avbryter alla, tänk inte på det, det är inte därför, jag håller inte med, jag tror verkligen inte det för att du är kvinna."
00:17:56
Det kanske är rätt.
00:17:58
Det kanske inte var därför, men att jag ändå måste utvärdera det här, att det rullar i mitt huvud hela tiden, baserat på gamla erfarenheter och att jag ändå stöter på sånt relativt ofta.
00:18:13
Det kostar ju också energi på ett sätt som påverkar precis allting jag gör.
00:18:21
För att jag menar, om jag aldrig upplevt det här problemet, då behöver jag inte utvärdera om det hände mig.
00:18:28
Så jag gör det av en anledning.
00:18:30
Vi pratade lite om det här förut.
00:18:34
Du tog upp någon gång att du kan vara lite tveksam för att skriva tester i ett team.
00:18:41
För att inte hamna i rollen som testare.
00:18:45
Det är också någonting som har påverkat dig eller hur du arbetar, fast det inte borde göra det.
00:18:53
Att du är bra på att skriva tester betyder inte mer än att du är bra på att skriva tester egentligen.
00:18:57
Men att det kanske är lätt att tolka in eller vara rädd för att då skulle jag kunna hamna i rollen att jag är den som skriver tester
00:19:05
och inte skriver riktig kod inom väldigt mycket situationstecken.
00:19:09
Ja, det är intressant för när man börjar tänka på det så har jag ganska mycket sådana saker jag inte vill göra.
00:19:16
Om man tar de här vanliga kontorsgrejerna då. Jag vill inte ställa upp och fixa fika om det inte är så här rullande schema.
00:19:23
Jag vill inte plocka i och ur diskmaskinen på en arbetsplats mer som en princip sak än att jag inte kan tänka mig att göra det.
00:19:30
Jag vill inte vara den som antecknar på möten. Alltså jag har mycket sånt som jag verkligen nu har börjat släppa på det såklart.
00:19:37
Men mycket sånt jag inte vill göra.
00:19:40
Och en stor grej var ju mycket, men till exempel att vara nära
00:19:45
UV som utvecklare.
00:19:47
Det kan ju ibland kännas lite jobbigt att om jag sitter med
00:19:51
bara CSS eller bara pixlar för att jag har blivit frågad om
00:19:55
jag är UXare eller designer så otroligt många gånger och det
00:19:59
finns liksom noll anledning när jag går runt i ett team med
00:20:02
andra manliga utvecklare varför jag är den som ska vara designer
00:20:07
Nej men exakt, och det där är ju en så jävla tydlig grej tycker jag.
00:20:11
För man hör ju, jag har hört väldigt många gånger att folk som till exempel åker på konferenser
00:20:17
och är till exempel kvinnor som får frågan "Ja, vad jobbar du med då?"
00:20:23
Eller alltså att de först pratar med till exempel två manliga kollegor som står bredvid och pratar om
00:20:29
"Vilken textaktie är ni med?" och sen vänder man sig till den kvinnliga kollegan och säger "Ja, och vad jobbar du med?"
00:20:36
Ja.
00:20:38
Och det är ett helt tydligt exempel på bias som folk har, eller fördomar som man har.
00:20:45
Ja, och det är ju som sagt, det finns ju naturligtvis händelser som är större också.
00:20:53
Jag har träffat på andra kvinnor i min karriär som har lämnat tech på grund av större omständigheter också.
00:21:00
Men jag tror att det är de här små sakerna som gör att människor inte förstår varför kvinnor försvinner.
00:21:06
Och det låter inte som stort, men någonting som jag tjatar mycket om och som ibland bara driver mig till vansinne är ju
00:21:14
på engelska när alla alltid säger "hey guys".
00:21:18
Och jag vet att det är korrekt engelska.
00:21:21
Det är inga konstigheter.
00:21:23
Och inom svenska att man säger "man" om allting.
00:21:26
Vilket jag också gör för att jag är väldigt van vid att göra i tal.
00:21:30
Men det faktum är att bara en sån liten sak är exkluderande när man yttrar den.
00:21:37
"Hej guys" för mig, tolkar jag som "hej killar".
00:21:41
Och jag hör det flera gånger om dagen.
00:21:44
Vilket bygger på min känsla av utanförskap.
00:21:49
Och det man gör när man använder såna typer av uttryck är att man ändå konstaterar normen.
00:21:54
Det är väldigt svårt att försöka förklara det för folk om man får ofta "Skärp dig, vad löjlig du är, det är bara ett ord".
00:22:06
Ja, jag förstår det, men det driver mig ändå till vansinne.
00:22:11
Just det här med att förklara för folk tycker jag också kan vara väldigt svårt, för det är så lätt att man får reaktionen "men vadå, jag är inte rasist"
00:22:19
Jag är inte sexist.
00:22:21
Man hamnar så jävla lätt i försvarställning för att det är ju ett väldigt känsligt ämne.
00:22:28
Och det vet jag själv. Om någon säger saker till mig i stunden så har jag väldigt lätt att "Oj, nej, det håller jag inte med om".
00:22:38
Men hinner man tänka efter lite grann eller om man säger "Oj, jag ska tänka på det här"
00:22:45
Då kan man inse senare att "ja men okej, det kan jag hålla med om".
00:22:49
Och jag tror att det är viktigt att inse att
00:22:52
om någon påpekar något så säger de inte
00:22:55
"du är rasist" utan de säger "det du gjorde var rasistiskt".
00:22:59
Och det tycker jag är en ganska stor skillnad mellan.
00:23:02
För att det är inte du som person som anklagas utan det är på en
00:23:07
i de flesta fall på en strukturell nivå.
00:23:10
Vilket då gör att du kanske gör det här undermedvetet.
00:23:13
Det är någonting som du inte tänker på.
00:23:16
Men när någon påpekar det så är det inte en personlig attack direkt.
00:23:22
Nej, det där är skitjobbigt.
00:23:26
Jag har också gjort jättemånga misstag och jag lär mig varje dag om nya saker.
00:23:31
Jag, till exempel, som blivit utsatt för en hel del rasism i mitt liv, har även gjort rasistiska saker.
00:23:40
För att jag är också strukturellt uppfostrad i ett land som inte var alltid så eftertänksamt när vi pratade om sådana här saker och skämtar och tidigare i livet och så.
00:23:55
Så jag gör ju också misstag, alla gör ju det. Det finns ingen perfekt. Det enda som handlar om, jag tror det som är så farligt är när man tystnar.
00:24:03
eller när man förväntar sig att marginaliserade eller minoritetsgrupper ska dra hela lasset.
00:24:09
För att det finns redan så mycket annan skit för oss, eller för dem att dra.
00:24:16
Och jag tror att det är så bra det som du var inne på, Thalera, att det kostar dig mycket mindre att ifrågasätta eller säga ifrån.
00:24:24
Och det är ju att du gör det, det är ju att du använder dina privilegier för att försöka skapa förändring.
00:24:31
Och det är verkligen så, om vi båda skulle göra exakt samma saker, reagera på exakt samma sätt i samma situationer, så kommer risken att vara mycket mindre för dig att det blir problem.
00:24:44
Jag tror också risken blir mycket mindre. För det här är ganska vanligt att om man har sagt ifrån eller det har hänt någonting, då blir det också så att då måste man liksom trösta eller ta hand om det som kommer efteråt.
00:25:01
Den här svansen av nästan som byktning eller förklaringar hur en person inte har gjort fel
00:25:08
eller hur jag har missuppfattat.
00:25:10
Och det är också så här att lägga den tyngden på personen som sa ifrån
00:25:15
bara för att lätta sitt egna samvete.
00:25:17
Ja, exakt. Och det är också väldigt lätt att man börjar tänka att
00:25:24
"Oj, men jag menade inte det så" eller "Det var inte min mening att såra dig" bla bla.
00:25:30
Jag har liksom ingen bra översättning på det här, men det är ett uttryck som är "intent does not erase impact".
00:25:36
Det vill säga att det är inte tanken som räknas i det här fallet.
00:25:42
Utan här är det faktiskt att det du har sagt har ju påverkat någon.
00:25:46
Man kan inte be om ursäkt bara med att förklara sig att "oj, det var inte så jag menade".
00:25:50
Skaden redan skedde.
00:25:54
Ja, så är det definitivt.
00:25:56
Vi kom verkligen en bit iväg här nu från där vi var i början.
00:26:03
Och då kan man ju fråga sig hur vi ramlade här.
00:26:06
Och det kan vi alltid fråga oss, men det faktum är att allting hänger ihop.
00:26:12
Och mycket av det här som vi pratar om och mycket om att miljön kanske inte alltid är så inkluderande
00:26:18
eller så lätt för personer att vara i, liksom sätt till yrke och allt möjligt,
00:26:25
gör ju också att arbetsplatserna kanske förblir homogena,
00:26:29
eller snarare att de arbetsplatserna sätter krav nästan på de som står ut
00:26:35
att anpassa sig in i miljön och in i mängden så att det blir mer och mer homogent.
00:26:40
Och att det är homogena grupper som utvecklar teknik och system,
00:26:45
Det påverkar ju systemen.
00:26:48
För om du till exempel har en produkt som ska lanseras världen över till alla typer av rasare och människor, inte bara vita.
00:26:57
Om du inte har testat eller förstått eller lyssnat på någon annans perspektiv, då kommer du missa saker.
00:27:05
Och det kommer systemet göra också.
00:27:08
Ja, jag tror att just den här boken, "Technically Wrong",
00:27:11
tror jag att det är med den här
00:27:13
handtorken.
00:27:15
Om inte annat så har det varit viral för något år sedan.
00:27:19
Och då var det typ att
00:27:20
en sån här automatisk handtork, så när man stoppar in handen under så börjar den spruta en massa luft och så skulle den
00:27:26
torka dina händer.
00:27:27
Och då var det någon som hade utvecklat en sån och den funkade inte på svarta.
00:27:33
För att den då uppenbarligen inte var testad på svarta personer.
00:27:36
Så att den kände inte av händerna på svarta personer.
00:27:39
Och det är ett så jävla tydligt exempel på när det blir fel.
00:27:43
- Ja.
00:27:45
Ett exempel är också när man tränar algoritmer och ansiktsenkänning tror jag det var.
00:27:52
Och då var det, jag kommer inte ihåg situationen, men då var det också problematik med att
00:27:56
jag tror att en svart person, eller svarta personer, blev benämnda som apor.
00:28:00
För de hade ju inte tränat den här algoritmen på svarta människor överhuvudtaget.
00:28:04
Ja, exakt. Undrar vi inte om det var Apples maskininlärningsalgoritm som de köper på telefonerna?
00:28:12
För där kan man ju typ söka på saker.
00:28:13
Och sökte du på Gorilla så fick du fram svarta personer.
00:28:16
Ja, så var det kanske.
00:28:18
Jag tycker det. Det kan ha funnits flera sådana här.
00:28:21
Men jag vet att det är i alla fall ett exempel på när det också har hänt.
00:28:27
Och sen har vi alla de här exemplen kring formulär där man ska fylla i ursprung och ras och etnicitet och vad den kan vara.
00:28:38
Det tas inte hänsyn till att en person kan ha multiraser eller multinationaliteter och alla sådana typer för att det förväntas bara att en person har en av allt slut.
00:28:52
Ja, exakt.
00:28:54
Jag tänker så här, om jag ska göra det vi nämnde lite grann nyss,
00:28:59
man ska ju inte vända sig till minoriteter för att de ska lösa problem,
00:29:03
men om jag får fråga dig lite på slutet här,
00:29:06
vad kan vi göra för att det här ska bli bättre?
00:29:09
Vad kan vi göra? Jag tror att vi måste lära oss att lyssna.
00:29:19
Lyssna på saker som andras upplevelser och validera dem och inte ta dem för icke-valida för att en majoritet anser annorlunda.
00:29:34
Jag tror att vi måste lära oss saker och vi måste också bli mycket bättre på att om någon säger till och ifrån, då ska det inte komma ett helst försvarstal.
00:29:43
utan då är det absolut att man kan ställa frågor om det undras om det men det är också en sån här
00:29:48
tack för att du sa till, jag ska tänka på det här och jag ska bättra mig, eventuellt liksom.
00:29:54
Men jag tror framför allt att människor ska sluta förvänta sig att marginaliserade personer ska utbilda dem.
00:30:05
Folk måste börja utbilda sig själva, det finns så mycket resurser.
00:30:09
Jag menar, du har nämnt två böcker här i podden som är jättebra att börja med.
00:30:15
Det finns oändligt med resurser.
00:30:17
Och istället för att fråga en person som du känner om någonting, dra in Googling och lär dig.
00:30:23
Ja, just det finns så oerhört mycket resurser.
00:30:27
Att jag känner att jag inte kan prata här nu beror mycket på att jag har lagt lite tid på att läsa lite böcker och kolla lite presentationer.
00:30:35
Och även vidga mitt nätverk.
00:30:41
Då menar jag inte att man ska söka upp och försöka umgås med folk.
00:30:44
Men att på Twitter har jag gjort en ganska stor effort att inte bara följa vita medelåldersmän.
00:30:51
Det här kan vara ganska obekvämt, för det är ganska många av dem som jag följer som
00:30:57
twittrar saker som jag känner "det här tog på mig personligt".
00:31:04
Men då är det tillbaka där att det kommer vara lite obekvämt och det kanske inte riktar på mig personligen egentligen.
00:31:10
Men ändå ta kvar det där och inte bara hamna i sin bubbla utan att försöka ta något steg utanför den.
00:31:17
Ja, men jag tror också att det här med att om en har möjligheten att säga ifrån med
00:31:27
och att göra det när saker har gått för långt.
00:31:29
Det finns ändå situationer som är inte tyvlaktiga eller någonting att fundera på.
00:31:34
Det finns fortfarande rena situationer som bara är fel.
00:31:38
Som bara är rent rasistiska eller sexistiska eller fel.
00:31:43
Men det är ofta ingen som vågar säga någonting.
00:31:46
Och om det är någon som säger något så är det kanske ofta någon som blir drabbad av det.
00:31:49
Och då kommer det hård och personen måste försvara sig.
00:31:54
Jag menar, i boken var det också många av de här Twitterstormarna som folk använder för att få följare och för att skapa saker på nätet.
00:32:03
Och det går ju inte att värja sig mot för en person.
00:32:08
Nej, men exakt.
00:32:10
Och jag tycker det finns väldigt mycket att göra.
00:32:14
Och man behöver inte känna att "oj, nu ska jag göra allt".
00:32:20
Men bara att man försöker hela tiden tänka på det och bli bättre så kommer det ju...
00:32:24
Om alla skulle försöka bli lite bättre hela tiden så skulle det ju bli bättre.
00:32:28
Så det finns liksom inte såhär att "oj, nu ska jag aldrig mer vara rasistisk".
00:32:33
Det kommer inte hända. Eller "nu ska jag aldrig mer vara sexistisk".
00:32:36
Det kan man ju glömma liksom.
00:32:38
Utan det handlar ju snarare om att på den här rasistiska skalan röra sig åt rätt håll.
00:32:44
- Ja. Alltså är det verkligen?
00:32:48
Så att, ja jag vet inte.
00:32:50
Så sen är det ju samma sak, vi har inte pratat jättemycket om hur det är på arbetsplatser nu, vi var in på det litegrann i början.
00:32:56
Men det är samma sak där att liksom,
00:32:58
det räcker kanske inte med att bara tänka, ja nu ska vi liksom intervjua många kvinnor.
00:33:06
Utan man kanske måste tänka lite mer helhetsperspektiv på det och försöka få in, ja men hur får vi dem att stanna i tech som vi pratade om i början.
00:33:15
Ja, och om jag är på det ämnet, jag kanske är ensam om det här, men det kryper i hela kroppen varje gång en rekryterare hör av sig till mig och säger
00:33:30
"Hej, vad glad jag är att jag hittade dig, för du är ju kvinna!"
00:33:34
Jag menar sådana saker, jag har tekniska meriter, min merit inom yrket är inte att jag är kvinna.
00:33:42
Nej exakt, och det ska ju liksom inte handla om kvotering.
00:33:46
För det är ju det som är mångas reaktion också.
00:33:48
"Men vadå, vi ska ju inte kvotera in kvinnor?"
00:33:50
Nej, det är ju ingen som frågar efter det egentligen.
00:33:54
För ingen kvinna vill ju bli kvoterad heller.
00:33:56
Nej.
00:33:58
Utan det handlar mer om att, många pratar ju om
00:34:00
att det finns ett pipeline-problem, alltså det vill säga
00:34:02
vi har inte kvinnor vi kan få in i vår rekryterings-pipeline.
00:34:08
Men det är ju också liksom falskt.
00:34:10
Det finns forskning som visar att om man försöker så hittar man kvinnor.
00:34:14
Ja, men de kanske inte utvecklas på samma sätt.
00:34:21
Nej, men vilken stöttning får de att göra det?
00:34:23
Alltså det här ämnet är enormt.
00:34:26
Ja, exakt. Jag tror att redan vi börjar närma oss det längsta avsnittet vi har gjort.
00:34:30
Så vi kanske ska ta och runda av strax.
00:34:33
Men det är ju definitivt ett ämne som är värt att återkomma till.
00:34:38
- Ja, hur läskigt det än må vara. - Ja, och jag är väldigt stolt över dig att du sitter här och pratar med mig om det här.
00:34:50
Som vi sa innan, min risk. Men du är ju definitivt modigare än vad jag är när det gäller det här.
00:34:59
Ja, tack.
00:35:03
Och med det sagt, om du inte har något mer du vill tillägga så kanske vi rundar av där.
00:35:10
Ja, men låt oss. Så kan jag gå och hypventilera en påse eller någonting.
00:35:15
Ja, vi säger det till våra lyssnare. Det kommer hon inte göra.
00:35:19
Men om det är någon som har några åsikter, frågor eller funderingar så får man jättegärna höra av sig till oss.
00:35:27
kanske främst till mig om man tycker illa om det här avsnittet.
00:35:30
Länkarna ligger i beskrivningen.
00:35:34
Jag tänkte också säga att om man har några avsnittsidéer så tar vi gärna det också.
00:35:39
Någon ämne eller teman vi ska snacka om.
00:35:42
Skicka gärna in det så ska vi göra av i kant och prata om det.
00:35:47
Om vi tycker att vi har något vettigt att säga.
00:35:50
Och skämt! Har ni några skämt på lut där?
00:35:54
Therese anstränger sig oerhört mycket för att få ihop alla de här skämten.
00:36:00
Jag har försökt och misslyckats alla gånger jag har försökt skriva skämt.
00:36:04
Så det går sådär. Men har ni några programmeringsutvecklar-it-relaterade skämt så skicka in dem så kanske jag kan dra dem i podden istället.
00:36:14
Ja.
00:36:16
Och med det sagt, då tackar vi för idag och så hörs vi om två veckor igen.
00:36:21
Det gör vi. Hej då!
00:36:23
Hej då!
00:36:25
[Musik]
Tillbaka upp