tillbaka till startsidan

76. En större buzz än Tiger King

Lyssna på Spotify lyssna! Lyssna på iTunes

Ja ja, vi betar av det obligatoriska AI-avsnittet då. Vi är kanske tillbaka på vår gamla goa låga energi och börjar med att nästan köra ner i ett mörkt och deppigt håll innan vi istället väljer ljuset. Det blir snack om deep fakes, slutet på historia, GitHub CoPilot, vad fan en hård parantes heter och ChatGPT. Dessutom att formatera en text för en femåring, lite snubbel kring Turingtestet, något om den onda och goda sidan samt ett löfte om att inte prata AI igen.

Om du gillar podden blir vi väldigt glada för en liten recension i iTunes eller en prenumeration på Spotify. Följ oss och säg hej på @asdfpodden på Instagram eller Twitter (Anton, Therése) <3

Länkar

Avsnittets skämt:

Hur vet jag att något är fel med Maggan?
Jag får kolla DataDog
Skrapa här!!
Transkribering
Transkriberingen är gjord av nån "AI-grej". Du kan förbättra den genom att klicka precis här :)
00:00:00
Hur kollar jag att något är fel med maggan?
00:00:04
Jag vet inte.
00:00:06
Jag får kolla datadog.
00:00:08
Det är så jävla dåligt.
00:00:13
Ja men jag sa att det var dåligt.
00:00:15
Det var ju roligt dåligt.
00:00:17
Och så att det kräver ändå, det kräver, alltså de som kommer uppskatta skämtet är ju också de som har, alltså det är våra superfans.
00:00:29
Alltså de som är engagerade lyssnare som vet att Maggan är en hund.
00:00:35
- Ja, min hund. Man behöver ju verkligen inte vara ett superfan för det.
00:00:39
För att jag pratar ju om Maggan så fort jag får en chans.
00:00:42
- Ja, jag vet inte. Det är inte så många avsnitt ändå.
00:00:45
Nu kan vi passa på att... vad heter det?
00:00:48
Att pusha för att det finns en sökfunktion på vår hemsida nu.
00:00:51
Så där skulle man kunna gå in nu och skriva Maggan.
00:00:53
Och så kan man säga att det är ändå en, två, tre avsnitt som du har sagt Maggan i.
00:00:58
Jo men hon finns ju också med på sidan tänker jag.
00:01:01
Jo absolut, det är sant.
00:01:03
Välkomna hörni till ett nytt avsnitt av asdf.
00:01:08
Jajjemen, låt mig också börja med att brasklappa.
00:01:12
Mm.
00:01:13
Ja, att jag i nattverk har bitit mitt tunga eller något så att jag pratar som att jag har tagit en lunchöl men det har jag inte.
00:01:21
Det är ju en fem plus ursäkt för om du har tagit en lunchöl dock.
00:01:26
-Aa, ja just det. Eller om man bara ska se det som att såhär, ja men det var meant to be, det är bäst att jag tar en lunchöl.
00:01:34
-Ja, där har vi det. Det är så det ska vara.
00:01:38
-Om jag ändå har behövt leva med den här smärtan så får jag dricka öl. Jag dricker ju inte öl, jag tycker ju inte om öl, men principiellt.
00:01:48
Nej, precis. Men alla förstår det menar jag.
00:01:53
Idag, jag är så jävla trött. Jag blev matförgiftad i helgen så jag skyller helt hållet på det.
00:01:57
Men vi tänkte väl i alla fall att vi skulle beta av det här som nu måste ändå vara, för alla poddar som någon IT-relation överhuvudtaget,
00:02:07
inte ens det, alla poddar överhuvudtaget har ju liksom haft ett AI-avsnitt för det här laget.
00:02:14
Ja, vi har också fått in mycket förslag på att prata om AI.
00:02:19
Ja, exakt det är därför vi gör det, för att våra lyssnare vill.
00:02:24
Exakt, så att jag menar vi måste ju abide by...
00:02:31
Grupptrycket.
00:02:32
Fan base, jag vet inte vad jag försöker säga.
00:02:36
Jag är också lite trött.
00:02:38
Jag har liksom jobbat lite med GDP-relaterade saker under några veckor nu.
00:02:47
Jag känner att energin, alltså jag tänker mycket på den här mimen med ""regular headache"" och så är det lite rött på ut.
00:02:55
Och så är det ""migraine"" och så lite mer rött. Och så är det ""GDPR"" i hela huvudet.
00:02:59
Just det, just det.
00:03:01
Lite så.
00:03:02
Ja, jag förstår det. GDPR är väl ingenting som ger så mycket energi så att säga?
00:03:08
Nej, illa i och för sig regler så kanske. Men det har varit en lång väg på många sätt.
00:03:19
Det kanske blir ett obligatoriskt GDPR-avsnitt också?
00:03:23
Oj, oj. Ja, vad har vi att säga om det? Ingenting?
00:03:29
Vi har inte fått så många lyssnare och förfrågningar på det heller, så vi kanske skiter i det och hoppar in och pratar lite AI istället.
00:03:37
Det är ju liksom en större buzz än när under pandemin Tiger King gick på Netflix.
00:03:45
Ja, men det är väl kanske inte super konstigt. Är det en större buzz än Animal Crossing dock? Det vet jag inte.
00:03:55
Animal Crossing, det känns klickigt. Det är inte alls lika brett.
00:04:02
Nej, men det var väldigt intensivt.
00:04:05
Ja, men Tiger King och AI, det är för allmänheten. Det är generellt.
00:04:13
Gud, okej, okej. Ja, men alltså det finns ju väldigt många olika delar i det här.
00:04:19
Jag menar från IT-hållet så har vi kanske mer så här, ja, den naturliga, ja, hur funkar det här, funkar det här, kommer det ta våra jobb, jag vet inte.
00:04:28
Men jag tycker det är mer spännande med liksom den här kulturella delen, för att den är mycket mer problematisk tycker jag.
00:04:36
Ja, men konsten, om den tränar upp sig på konst och sen snor jobben för det, vad händer då?
00:04:42
Att Grimes är såhär, jag kommer dela hälften av royalties med dem som gör en hit med min röst.
00:04:48
Alltså det är mycket galenskap på gång.
00:04:52
- Alltså hade jag varit i Grimes position och för det första kunnat sjunga då,
00:04:57
det är ju en jävla kanondeal.
00:04:59
Folk gör låtar och gör sina pengar.
00:05:03
- Ja, jag bara sitter hemma. - Det är noll effort.
00:05:06
- Ja, verkligen.
00:05:09
Jag håller ändå med den kulturella biten, det finns så jävla mycket där som man kan röra på.
00:05:17
Det senaste är väl just att folk kan göra, alltså imitera röster, eller inte imitera men återskapa rösterna.
00:05:25
Den stora var väl den här Drake och Jay Z låten va?
00:05:29
Som blev superpoppis.
00:05:31
Och sen har det varit lite annat. Du har ju typ Mid Journey är väl en av de större.
00:05:37
Och vad heter den andra? Jag har tappat namnen på den nu.
00:05:42
-Jag har ingen aning. -Skitsamma, det kommer komma upp sen i avsnittet.
00:05:47
Men Mid Journey är väl en av de som är bäst på att återskapa realistiska bilder på något sätt.
00:05:55
Sen finns det ju Dalí och alla de runt omkring. Men jag vet inte, det är...
00:06:00
Men alltså deepfakes, så himla obehagligt.
00:06:04
- Ja, gud, ja. - Vad av...
00:06:05
Jag menar, jag kan inte ens hantera första april i världen, för jag är så naiv.
00:06:11
Hur ska jag hantera deepfakes?
00:06:14
- Nej, men jag läste någon... Jag kommer inte ihåg om det där var en artikel eller en video eller nåt så jag har svårt att länka till den.
00:06:19
Men jag läste någonting om...
00:06:22
Att nån var så här, är det här liksom slutet på historia?
00:06:26
Eller historien, alltså förstår du, alltså ämnet historia?
00:06:30
För att du kan inte veta om den här bilden är en bild som är genererad eller om den är en bild som faktiskt är sand.
00:06:39
- Ja.
00:06:41
Ja, verkligen så här att ""ja men vi kunde inte sprida information och sen fick alla tillgång till informationen och det var superviktigt och nu kan ingen lita på den informationen"".
00:06:51
Jag tycker det är jätteobagligt.
00:06:53
Ja, och man vet ju liksom, alltså i ett traditionellt sätt när det kommer ny teknik och ny allt möjligt, om man tar den negativa sidan, eller om man ska vara ännu mer karaktäriserande så är det kanske den onda sidan som är bäst på att använda teknik.
00:07:13
eller ny teknik. För de har inte de här skruplorna, som är ett uttryck man använder alldeles för lite, som den då goda sidan har.
00:07:23
Alltså det vill säga, hur ska vi använda den här, hur använder vi den här på rätt sätt, vilken etik och moral och allting runt omkring det ska vi applicera på den.
00:07:31
Medan de som till exempel vill då sprida desinformation till exempel, eller vad fan det nu kan vara, de kommer ju bara köra på.
00:07:37
Ja, alltså för det är verkligen så här, det finns ingenting kanske som stoppar, gud vad elakt det känns säger den onda sidan, men det blir lite så här, ja men det är helt sjukt, jag skulle aldrig kunna komma på tanken att ta en person och göra en deepfake och en porrfilm på den personen, för det skulle ta emot, inte för att jag kan göra det, men du förstår principen.
00:08:02
- Det skulle ta emot, men... - Om jag kunde. Det är bara att jag inte kan som tar emot.
00:08:09
Nej, men alltså det känns på något sätt för mig också, för det är så himla tydligt att man vet att det här är inte rätt.
00:08:17
- Ja, exakt. - Det är liksom tydligt kränkande på ett sätt som inte är kanske om man råkar dela information om någon som man inte hade tänkt att man ens delade information om.
00:08:29
Jag vet inte vart jag är på väg. Jag tänkte att vi också var på väg in mer mot bara använda AI i vårt arbetsliv.
00:08:41
Vi kommer nog dit också. Men jag tycker ändå som du var inne på i början, det är de här bitarna som är de mest intressanta på en större skala.
00:08:51
Just nu om man jämför med, ja visst man kan använda, jag vet inte, chatt-GPT för att generera saker och oj folk luktar läcka lite företagshemligheter.
00:09:00
Det är inte så jävla allvarligt.
00:09:03
- Nej, det är mer bara, ja men det blev jobbigt för kommersialismen att, ja det blev fel, det blev som konkurrens mellan företag som det kan bli lite sämre, det händer.
00:09:17
Ja, exakt.
00:09:19
Men alltså, konsten, kulturen, historien, alltså det som är på något sätt människan känns det som.
00:09:27
Ja, jag undrar liksom om det kommer ha någon typ av pendel-effekt där, ja men till exempel om man tar just musik så lär det ju bli ännu viktigare med live-framträdanden.
00:09:45
Alltså om det helt plötsligt kan vara så att det finns 10 000 nya Jay Z låtar eller Drake låtar eller vad det nu kan vara.
00:09:57
Bleachers för att ta ett av mina favoritband och plugga dem lite här i podden också.
00:10:03
Då kommer det ju bli såhär ""ah"" fast det spär ljudet lite grann.
00:10:09
Sen är det klart att man kanske kommer kunna veta att det här är musik som jag faktiskt har,
00:10:13
eller det här bandet har gjort själv och de står bakom dig och allting sånt.
00:10:17
Men jag vet inte, det kommer fortfarande bli någon konstig grej när man kan lyssna på så många låtar.
00:10:24
Jämfört med om man går på en spelning med en band eller en konsert och faktiskt ser personen sjunga låtarna
00:10:31
och liksom att det blir faktiskt äktat att vara på riktigt.
00:10:34
- Tänk om någon kör playback?
00:10:36
- Ja, men sen kommer det att sluta med att det blir playback.
00:10:39
Fast helt plötsligt så kan man liksom ställa in vilken röst som kommer ut ur högtalarna när du själv sjunger i mikrofonen.
00:10:45
- Ja.
00:10:47
Åh.
00:10:49
Alltså jag brukar bara lyssna på låtar, de brukar ju bara få rulla.
00:10:52
Jag vet ju inte vad det är för artist, jag vet ju inte vad som händer.
00:10:55
- Nej. - Alla bara lyssnar på radion.
00:10:58
Vi bara lämnar kulturen. Vi skiter i kulturen. Vi har på väg ner i ett mörkt och deppigt hål i det här avsnittet och det ska vi fan inte ner i.
00:11:09
Alltså vår energi räcker inte till till det. Vi kan liksom inte parera det mörkret just nu.
00:11:15
Nej, det är sant.
00:11:17
Så, med tanke på att vi pratar som att vi tror att AI är värdelöst och kommer ställa till det mer än vad det hjälper.
00:11:23
Men, hur mycket använder du AI? Och fan, det är också när vi säger AI idag så menar vi ofta generativ AI.
00:11:32
Alltså det vill säga typ chat-GPT eller någon annan GPT-modell eller typ GitHub Copilot eller vad det nu kan vara.
00:11:40
Alltså det är det vi pratar om idag för att det är det som är Tiger King AI.
00:11:46
Jag vet, jag var väldigt sen på det här, för det har varit så hypat, och jag har bara känt ""Uch"" lite så.
00:11:55
För jag har inte heller det här drivet, bara ""Åh vad coolt, hur funkar det här då? Är det verkligen så bra?""
00:12:01
Jag är mer såhär ""Uch"" så känner jag lite.
00:12:04
Men sen kände jag någon dag, och det här tror jag faktiskt var när jag satt med...
00:12:10
Jag fastnade på att lyckas seleniumtesta en Shadow Dom i RubyCode.
00:12:20
Ett Ruby seleniumtest.
00:12:22
Något du kanske inte är jättefamiljär med från första början, alltså Ruby till exempel.
00:12:26
Nej exakt, kan inte ett piss.
00:12:29
Jag var verkligen så här, jag vet inte vad jag ska göra. Jag satt i typ en dag och bara,
00:12:33
Nej, och sen satt jag där och bara, nej men jag tar väl hem Copilot, ser om Copilot kan hjälpa mig.
00:12:41
Skrev lite kommentarer på vad jag ville göra, och Copilot hjälpte mig ju lite grann, men lyckades ju aldrig lösa problemet och då blev det lite såhär, nej men jag frågar ChatGPT.
00:12:55
- Det kanske... - Vi går till nästa.
00:12:57
- Kanske det räcker något.
00:12:59
Och ChatGPT gav ju då samma lösning som inte heller riktigt löste problemet.
00:13:05
Så att där började jag.
00:13:07
Och nu har jag lite grann... Alltså jag har Copilot på.
00:13:11
Och har på skämt vissa gånger när vi sitter.
00:13:16
Jag har suttit på ganska många problem som liksom inte hittat någon lösning på.
00:13:22
Och då är det så här, har du frågat chat-GPT?
00:13:25
Så har jag frågat chat-GPT lite grann.
00:13:27
Men det är med så jag använt det.
00:13:28
Hur har du det med den här typen av generativ AI i ditt liv?
00:13:33
- Nej, men jag är väl ganska lik.
00:13:36
För jag var också väldigt sen på bollen på Copilot just till exempel.
00:13:42
Men den tycker jag, alltså så här,
00:13:45
jag använder den inte jättemycket för det som, alltså så här, skriva kommentarer
00:13:48
och sen får den generera kod utifrån kommentarerna.
00:13:51
Det händer någon gång ibland när man har något superlitet problem som man vill lösa.
00:13:55
Men oftast så tycker jag att den är väldigt mycket bättre på autocomplete.
00:14:00
För den ger ju autocomplete förslag också.
00:14:03
Det vill säga att om jag till exempel, vad fan kan det vara, om jag skriver liksom
00:14:09
börjar skriva en use state i React
00:14:14
så kommer den autocomplete efter första
00:14:18
Efter första, vad heter det? Hårda masfingen höll jag på att säga. Hårda parantesen.
00:14:23
Vad fan heter hårda paranteser på?
00:14:25
Vad menar du med hårda paranteser?
00:14:27
Du fattar, de är fyrkantiga paranteserna.
00:14:29
Kantiga paranteserna. En bracket.
00:14:31
Ja en bracket, exakt. Men jag försökte komma på det lite på svenska.
00:14:33
Ehm.
00:14:35
Pfff.
00:14:37
Vet du vad vi gör? Vet du vad jag ska göra nu?
00:14:39
Fråga chattgpt.
00:14:41
Jag ska gå in och fråga chattgpt.
00:14:43
Och se om det funkar.
00:14:47
Jag måste såklart logga in.
00:14:48
Nej men det som jag håller på med är oftast att jag gör så.
00:14:53
Att den autocompleter saker på ett mycket bättre sätt än vanlig autocomplete.
00:14:59
För den är ju mycket smartare så den får ju liksom kontexten på saker runt omkring.
00:15:02
Så att ibland kan den autocomplete hela rader.
00:15:04
Vilket är väldigt väldigt trevligt.
00:15:06
Ja.
00:15:08
Alltså jag har ju också det.
00:15:10
Men någonting som jag stör mig enormt på det är om jag gör typ en...
00:15:15
för att göra en sträng.
00:15:17
Och då skriver nu två.
00:15:19
Men ChatGPT kompletterar och så lämnar den en jävla fnutt kvar.
00:15:23
Så att det blir alltid lite error. Det stör mig något enormt.
00:15:27
Har jag ChatGPT? Jag menade Copilot.
00:15:31
- Ja, precis. - Jo.
00:15:33
Jag frågade ChatGPT.
00:15:35
Jag skrev, ""Vad heter en parentes med kanter på svenska?""
00:15:39
En parentes med kanter kallas vanligtvis för parentes, eller runda parentes på svenska.
00:15:44
Det är helt fel!
00:15:46
Du är dumma jävla oj!
00:15:48
Men du är också svenska.
00:15:50
Men snackar du med chattgrupping på svenska?
00:15:52
Nej, men nu ville jag ju veta vad den heter på svenska.
00:15:54
Så då tänkte jag att då skriver jag på svenska.
00:15:56
Sen skrev jag den. Det finns också
00:15:58
fyrkantiga parenteser och klammer parenteser.
00:16:00
Klammer parentes då?
00:16:02
Ja, klammer parentes kanske.
00:16:04
Men om jag skriver nu då.
00:16:06
Vad det här är en klammer parentes.
00:16:08
Det här är bra radio det här.
00:16:10
Verkligen.
00:16:12
Verkligen.
00:16:14
Klammerparentes är bra bla bla bla bla.
00:16:16
Vad fan är det som?
00:16:20
Spanningen är olidlig.
00:16:22
Nej, det är...
00:16:24
Den skriver inte ut vad en klammerparentes...
00:16:26
Men gud, kunde du inte bara fråga
00:16:28
""What's the word for bracket parenthesis in Swedish?""
00:16:32
Jo, men då hade jag kunnat gå till translate.google.com istället.
00:16:36
Ja, men...
00:16:38
Vad håller vi på med?
00:16:40
- Det här är varför AI tar över. - Ja, jag vet. Vi kommer aldrig göra det igen.
00:16:45
Kanske att jag klipper bort det till och med, för det var så jävla ointressant.
00:16:49
Men alltså, en sak som jag tycker med Copilot, det är att ibland så gör den lite fel.
00:16:56
Ja, Gud ja. Gud ja.
00:16:59
Och sen störigt lite, lite fel. Och det var ju ganska svårt när jag befann mig i ett Ruby-kontext som jag inte har koll på.
00:17:06
Det är väldigt svårt för mig att avgöra om det är fel eller inte.
00:17:11
Det är lättare för mig att skripta, det är vanligt.
00:17:13
Det här kan jag se ganska fort, det här är inte rätt.
00:17:15
Men i Ruby är det så här, jaha, okej.
00:17:19
Det där tror jag är en ganska viktig grej att tänka på när man använder de här modellerna.
00:17:26
De vet ju inte vad som är rätt eller fel.
00:17:29
Ofta pratar vi till exempel om GPT-modellerna.
00:17:33
Det man gör när man ställer en fråga till dem, eller om vi tar specifikt chatt-QPT,
00:17:37
är att frågan du ställer är ju egentligen inte där du skriver i chatten.
00:17:42
Utan frågan är ju vad är det statistiskt mest sannolika svaret på det här?
00:17:50
Eller vad är det statistiskt mest sannolika texten att komma efter den här texten som du har skickat in?
00:17:54
- Ja, och vart finns det mest en relation med de här texterna?
00:18:00
Ja exakt, så att det handlar ju om det. Alltså så här, folk är så här ""Åh wow, den kan svara på frågor"".
00:18:05
Det är inte riktigt det den gör egentligen.
00:18:08
Vilket gör att den kan väldigt ofta ha fel och väldigt ofta hallucinera som det kallas när den hittar på saker.
00:18:14
Alltså det har jag märkt också väldigt mycket att så här, man skriver och frågar någonting och så får man så här ""Ja men använda här NPM-biblioteket"".
00:18:20
Man bara går dit och bara ""Äh, det var en 404-sida på NPM för det finns inte"".
00:18:24
Men det är ju fortfarande så pass bra att det skulle klara Turing-testet.
00:18:29
Man kan ju fortfarande inte säga att det är 100% en AI jag chattar med.
00:18:35
Nej, inte alltid. Men det känns som att det är ganska enkelt.
00:18:40
Det känns som att man skulle kunna klura ut det om man fick chatta lite fram och tillbaka.
00:18:44
Jo, klura ut det ja, men är inte Turing-testet så att du ska med säkerhet kunna avgöra att du inte pratar med en människa?
00:18:52
Jo, det kan väl stämma.
00:18:54
Att det ska vara ett svar som en människa aldrig skulle ge tillbaka.
00:18:59
Det var väldigt länge sedan jag läste det här på universitetet.
00:19:04
Ja, det här... Jag tror...
00:19:10
Har du frågat ChattGPT?
00:19:12
Nej, jag har inte frågat ChattGPT.
00:19:14
Jag gick till Wikipedia.
00:19:16
Det är som du säger, att man ska kunna ställa frågor till en dator.
00:19:19
och sen ska man kunna bedöma om det är liksom en...
00:19:25
Om du ställer frågor till flera datorer samtidigt
00:19:31
så ska du kunna bedöma då vilka är AI's och vilka är människor.
00:19:37
- Ja, men alltså för att om någon svarar så här ""ja, jag kan inte svara på det här""
00:19:44
Det är inte en indikation på att det är en AI nödvändigtvis, för att det skulle en människa också kunna ha sagt.
00:19:52
Ja, men så kan det absolut vara.
00:19:54
Jo, alltså texten den spottar ur sig är ju ändå tillräckligt förtroendeingivande för att man ska kunna lita på den.
00:20:02
Men också att den använder så här sociala konventioner att den upprepar frågan först.
00:20:08
Du ställer den här frågan, då svarar jag så här.
00:20:12
Det är absolut imponerande.
00:20:16
ChatGPT har jag inte använt jättemycket aktivt.
00:20:20
Ibland för lite mer kreativa saker som att formulera om det här
00:20:26
eller korta ner meningen lite grann.
00:20:30
Sådana saker tycker jag den är ganska bra på.
00:20:32
Och att transformera data från olika format.
00:20:38
Och med format så behöver det inte vara JSON till XML utan det kan lika gärna vara från en akademisk text till en text som en femåring förstår.
00:20:46
Ja, jag har ju hört många exempel på att använda ChatGPT för att frambringa management lingo.
00:20:56
Ja exakt, jag har också sett någon som skrev så här, jag är så jävla arg på den här personen, kan du skriva ett, han är dum i huvudet, han kan ingenting, bla bla bla, kan du skriva ett mail så det låter lite mer professionellt.
00:21:11
Och så kommer det ändå ett vettigt mail som är typ så här, jag har lite feedback till dig, bla bla bla.
00:21:19
Men också att det är väldigt tekniska texter, kan du skriva det här så att en icke-teknisk person förstår det på ett bra sätt?
00:21:30
Ja exakt, och det är ju sånt jag tror att det här kommer slå i till slut, när folk har satt sig ner och faktiskt förstår vad det gör.
00:21:38
Vi har testat lite på jobbet.
00:21:44
Det är svårt att förklara vad det är utan att ge alltför mycket iväg.
00:21:47
Det tror jag inte jag får göra.
00:21:49
Men vi har ett formulär där man ska fylla i text som visas för slutanvändare.
00:21:55
Och den texten ska innehålla ganska mycket fakta.
00:21:58
Då har vi testat att köra OpenAI API.
00:22:04
Och då slänger man in då så här, ""Ja men här är vår fakta, skriv en text som följer det här formatet typ.""
00:22:12
Och den är hyfsad på att spotta ur sig ändå ganska bra texter.
00:22:17
Så jag tror att, nu har vi inte gått live med det här än, men jag tror ändå att om vi labbar lite mer så kommer det att kunna spara ganska mycket tid för de som sitter och skriver de här texterna.
00:22:24
Mm, spännande.
00:22:27
Men ja, alltså annars har man väl också hört SCO-texter kanske, eventuellt.
00:22:33
Det här ger mig också lite skräck, jag menar riten kring att skriva en teknisk rapport som du skickar in och så kommer det en språkprofessor och rejekta dig 500 gånger för att du har skrivit det i jag-form.
00:22:51
Och inte i liksom, alltså det är, det är fan...
00:22:56
Jo men exakt, men det är lite samma som du var inne på tidigare med ditt Ruby exempel.
00:23:00
Jag tror att det är en risk om man tror att nu behöver jag inte lära mig att skriva bra tekniska texter eller vad det nu kan vara.
00:23:09
Utan man måste fortfarande kunna liksom, på samma sätt som det är lättare om du kan Ruby att utvärdera resultatet.
00:23:17
så kanske de här texterna som ChatGPT spottar ur sig eller GPT är urusla om du inte kan bedöma dem.
00:23:24
Jo, men det beror ju också lite på vilken nivå du är.
00:23:28
Alltså går du i typ högstadiet eller gymnasiet kanske, så då behöver du kanske inte ha en nivå som är...
00:23:36
Alltså...
00:23:38
På den... Då behöver du kanske inte vara på den nivån att det är detaljer som kan make or break fakta, liksom.
00:23:46
Nej, så kan det vara.
00:23:48
Jag undrar om jag inte såg någon rubrik om att någon universitetsstudent i Lund kanske slänger ur med det.
00:23:53
Tänk att de är lite lite sämre än Uppsala.
00:23:55
Är det för Lund där?
00:23:57
Det var någon där som hade blivit anmäld för fusk.
00:24:03
Och de trodde att de hade använt en AI.
00:24:05
Det fanns två grejer här som jag tyckte var intressant.
00:24:08
Det ena var att de sa typ såhär ""Texten innehöll massa referenser till böcker som inte finns"".
00:24:13
Det lutar väl ändå kanske åt, det är ett ganska tydligt tecken på att det förmodligen är så.
00:24:24
Men sen stod det också att de hade utvärderat texten med någon programvara som hade bedömt att det var 99,9% sannolikhet att den var skriven av en AI.
00:24:37
Och det går såvitt jag vet inte.
00:24:41
Så det skulle vara en AI som bedömde en annan AI?
00:24:47
Ja, och jag vet att det finns online tjänster för det som påstår att de kan det.
00:24:52
Men jag har inte sett något bevis på att de faktiskt kan bedöma texterna olika, att de kan se skillnad på dem.
00:25:00
Och jag vet att OpenAI har någon egen AI-bedömning om det här är en AI-text eller inte tjänst.
00:25:08
Och dom påstår att dom har ungefär kanske, jag vet inte, nu var det ett tag sedan jag kollade, men typ 30% träffsäkerhet.
00:25:14
- Mm. - Ja.
00:25:18
Och det där känns ju också som att det kommer att bli, alltså det kommer ju garanterat vara någon som blir liksom anklagad för att skriva något med AI, fast aldrig har gjort det.
00:25:26
Ja det där får man nog passa sig jävligt mycket för alltså.
00:25:31
Och då ska vi inte komma igen på det med bias inom tekniska grejer.
00:25:37
Herregud vilka trubbel vi skulle kunna försätta oss i tänker jag.
00:25:41
För att man också börjar lita blind på den här skiten.
00:25:43
Ja.
00:25:44
Ja nu sa jag skiten men det är lite så jag känner.
00:25:46
Jag tycker inte att livet blir bättre med AI.
00:25:50
Jag är väldigt skeptisk.
00:25:52
Jag är också bakåtsträv...
00:25:54
Jag tror det behövs, jag uppskattar folk som experimenterar med det och försöker bygga ganska vettiga tjänster.
00:26:04
Det finns ändå användarfall som jag tycker att det där skulle nog kunna funka.
00:26:10
Men det är också väldigt många som tror att det här är the holy grail.
00:26:15
Det är nu vi har, det här kommer lösa alla världens problem för att vi har det här.
00:26:20
Alltså det finns så många LinkedIn influencers som sprider att ""om inte ditt bolag har sadlat om och satsar på AI nu då är ni körda""
00:26:33
""Om inte ditt bolag använder typ chatt-GPT i er verksamhet då är ni körda"" och det där är ju domedagsprofessina.
00:26:41
Det är ju, vet du vad det är? Det är samma personer som innan det här pratade om NFT och krypto.
00:26:48
Oj, oj, oj, det här är kulen du vill dö på så att säga.
00:26:53
Alla personer som nu älskar AI, de älskade ju krypto och NFT för sex månader sedan.
00:27:03
Ja, jag har svårt att se det, men jag hoppas att det här blir lite som 3D-TV hemma.
00:27:10
Ja, 3D-TV hemma, det fanns det ingen användning för.
00:27:16
Här känns det ändå som att det finns någonting.
00:27:20
Jag tror ändå att det här kommer påverka ganska mycket.
00:27:23
Redan nu, det är ju svintidigt än ska sägas, så har ju liksom så här...
00:27:29
Om man pratar bara textgenereringen med typ Copilot som exempel.
00:27:34
Jag tycker ju att den ger mig lite värde.
00:27:36
Jag vet inte hur värt det är i längden, men den kommer ju förbättras.
00:27:43
Det är så tidigt, det är en helt ny teknik egentligen, en ny teknologi.
00:27:48
Och jag tror ändå att det kommer finnas någon värde i det.
00:27:51
Vilket det absolut inte gjorde i 3D-TV hemma.
00:27:54
Nej, det är sant. Men jag är ju inte en person som känner att jag är redo att betala för Copilot.
00:28:01
Nej, men precis.
00:28:03
Så pass mycket värde tycker jag inte att det ger mig. Nu när jag har den, den skadar mig inte så mycket.
00:28:09
Det är ganska nice. Men när min 60-dagars-trial går ut kommer jag nog inte känna att den här ska jag börja betala för.
00:28:15
Nej, jag håller med. Jag tycker inte heller att den ger mig liksom...
00:28:20
Jag tror att den sparar mig lite tid varje dag. Det tror jag absolut.
00:28:24
Men jag vet inte om det är värt pengarna.
00:28:26
Nej, och sen för chatt-GPT, jag förstår användningen och jag förstår att det här är här för att stanna, att det kommer och jag tror att jag fan vill leva i förnekelse ett tag till.
00:28:36
Men jag som inte gillar att läsa mycket saker, alltså chatt-GPT är tjatig alltså. Det är jättemycket text, det är massa utfyllnadsord och man bara ""Uch, måste jag läsa allt här?""
00:28:46
Det där är det enda tipset jag har här som kommer faktiskt vara något praktiskt tips om det här.
00:28:51
Du kan ju skriva i ditt meddelande, svara så kort som möjligt.
00:28:54
Så kommer du få ett väldigt kort svar.
00:28:56
Men gud vad otrevligt.
00:28:58
Alltså jag känner ju...
00:29:00
Det är inte människa Therese.
00:29:02
Nej men jag känner att jag måste vara trevlig mot AI-n.
00:29:05
För när Skynet kommer, då kommer någon komma ihåg mig som en trevlig användare.
00:29:11
Jag brukar i och för sig säga tack till Siri, nej inte till Siri, till Alexa när jag pratar med henne hemma.
00:29:16
Du har ju inte att säga henne också.
00:29:18
Ja, nu är det snart här. Men ja, hitta användningsområden i jobbet. Jag vet inte, kommer det ta våra jobb?
00:29:31
Alltså gud, jag hoppas det. Jag är så trött.
00:29:33
Jag tror inte det kommer ta våra jobb. Jag tror att det kommer förenkla ganska mycket av våra jobb i längden.
00:29:39
Men det är inte som många som säger att i nästa år finns det inga utvecklare längre.
00:29:44
Man bara ""Nu lugnar vi oss"".
00:29:48
Ja då tror jag inte riktigt att man vet vad vi gör.
00:29:52
Nej exakt. Alltså det är ganska mycket tid som inte är att skriva kod.
00:29:59
Ja alltså de här senaste veckorna har jag ju spenderat en majoritet med att bara prata med andra individer om uppgifter liksom.
00:30:09
Ja men exakt.
00:30:12
- Nej, jag tycker... - Du ser chatt-GPT göra det va?
00:30:16
Nu har vi betat av det här avsnittet.
00:30:20
Jag ska inte lova något, men det kommer fan vara lång tid innan vi pratar om AI igen.
00:30:26
- Ja, eller? - Ja, kanske tills jag har ändrat mig och bygger en jävla tjänst med AI som...
00:30:34
- Exakt, du har ändå tränat tjänster på AI som en kul grej. - Ja, ja, ja, men det där...
00:30:41
Transkriberingen på sidan.
00:30:43
Ja just det, den använder också AI.
00:30:45
Men...
00:30:47
Ehh...
00:30:49
Annars kan vi ha ett avsnitt bara om NFT
00:30:51
för att höra dig gå upp i
00:30:53
limningen.
00:30:55
Ja, nej det...
00:30:57
Vi behöver inte gå dit.
00:30:59
Det vet du vad det är?
00:31:01
Det är fan mer värdelöst än 3D-TV hemma.
00:31:03
Hahaha...
00:31:05
En curved-TV också.
00:31:09
- Bara om samtidigt. - Ja, nej jag vet inte.
00:31:11
Det där, nej, vi är på väg in i en mörk del av världen nu.
00:31:17
Jag hör också en katt som skriker bakom mig.
00:31:21
Jag sitter ju instängd här.
00:31:23
Vi kanske säger så på den här gången.
00:31:28
- Ja, vi får nog göra det. - Toppen att ni lyssnar.
00:31:32
Vi blir väldigt glada för det.
00:31:34
Fortsätt höra av er med avsnittsförslag och allt sånt.
00:31:37
och allt sånt. Skicka in skämt och sånt. Allt går att göra på vår hemsida nu.
00:31:40
- Skicka skämt till mig istället. - Ja men det kan ni också göra.
00:31:43
Skicka skämt direkt till Therese om ni har någon kontaktväg.
00:31:46
Om vi är så ledsen är det bara jag som får alla.
00:31:48
- Exakt, det känns fel. - Ja, just det. Följ oss på Instagram.
00:31:52
- Det finns trevligt content där. - Fick jag Instagram?
00:31:55
- Kanske. - Okej, det här är Outro. Folk har redan lagt på.
00:32:02
- Vi hörs igen om två veckor. - Gör vi. Hejdå.
00:32:05
Bye bye!
00:32:07
Bye bye!
00:32:09
[Musik spelas]
Tillbaka upp