Doom Debates är den enda showen som ägnas åt att debattera existentiell risk från artificiell intelligens. Grundad av Liron Shapira, har showen producerat 180 avsnitt med Nobelpristagare, MIT-professorer, skaparen av Ethereum, Richard Feynmans son, arresterade aktivister och Steve Bannons War Room.
Uppdraget: bygga social infrastruktur för debatt av hög kvalitet om huruvida avancerad AI kommer att orsaka mänsklighetens utrotning, och vad, om något, som kan göras åt det.
"Good. That is literally what I am trying to do. I am trying to do more and more fear-mongering. As much as possible. Maximization of fear-mongering. Fearmongeringmaxxing."
Hello, Liron!
Hi, Bob. How are you doing?
[...] Let me introduce us both. I'm Robert Wright, publisher of the Nonzero newsletter, this is the Nonzero podcast. You are Liron Shapira, host of the highly regarded Doom Debates podcast. [...] you are the Walter Cronkite of your era.
Författare till fyra böcker, däribland The Moral Animal (1994), Nonzero (2000) och Why Buddhism Is True (2017). Tidigare redaktör på The New Republic, skribent på The New Yorker. Hans tes i Nonzero var att mänsklighetens historia tenderar mot plussummespel och ökat samarbete. Tjugosex år senare intervjuar han människor som tror att spelet snart är slut. Publicerar Nonzero Newsletter på Substack.
[...] I think I'd like to do a lot of talk about Anthropic. There's the whole Pentagon-Anthropic issue. [...] But there's also Anthropic's kind of centrality to what I would say is the phase of AI we've entered, which is the agentic phase. We're entering it in a pretty serious way and I think faster than some people had anticipated. And kind of central to that has been Claude Code [...]
Ett AI-programmeringsverktyg från Anthropic som låter utvecklare skriva mjukvara genom naturligt språk. Istället för att skriva kod rad för rad beskriver du vad du vill ha och AI:n skriver det. Lanserades i början av 2025 och blev katalysatorn för det AI-communityn kallar "vibe coding" — programmering med vibbar istället för syntax.
Software engineer is what I used to call myself up until these last couple months. I've been programming computers since I was nine years old. [...] It's just these last couple months, in this takeoff, in this singularity, it's just been stunning what's been happening to software engineering.
[...] Long story short, I think I'm pretty much hanging up my title as a software engineer. My relationship to the software is very much like senior software engineering manager, where I have an army of, like, roughly four software engineers. It's as if I just got a budget of a million dollars a year to spend on four full-time software engineers who work for me [...] And it's like better than hiring four humans.
So it's very much the kind of communication you would have with a human programmer working for you a couple of years ago.
Yes, the only difference is that it's much faster. [...] The AI does the same thing in like 30 seconds, and then it delivers the same product. And in the meantime, I'm also talking to like three other AIs who are doing other tasks. [...] Bob, I'm still, like, every day I still wake up and this is like the first thing on my mind. Like, I can't believe this is real.
Shapira beskriver att han har "ungefär fyra mjukvaruingenjörer" som AI-agenter. En miljon dollar per år i ingenjörstalang för en Claude-prenumeration. Han framställer det som befrielse — "I can't believe this is real" — men det ekonomiska våldet gömmer sig i öppen dager. Varje senioringenjör han inte anställer är en senioringenjör som inte har ett jobb.
Datavetare vid University of Louisville. Författare till AI: Unexplainable, Unpredictable, Uncontrollable (2024) — den boklånga argumentationen för att AI-säkerhet inte bara är svårt utan matematiskt omöjligt. Hans P(doom) på 99,999999% är ingen retorisk överdrift; det är en beräknad position baserad på hans omöjlighetsteorem för AI-kontroll. Två framträdanden på Doom Debates. När han tillfrågades om vad som skulle sänka hans siffra svarade han "ingenting av det som för närvarande föreslås."
AGI-säkerhetsforskare vid Astera Institute. Har en P(doom) på 90%. Tre framträdanden i showen — flest av alla gäster. Hans forskningsinriktning: att förstå hjärnan tillräckligt bra för att bygga anpassad AI genom att dekonstruera hur mänskliga värderingar fungerar neurologiskt. Föreslog också "smartare mänskliga bebisar" som en anpassningsstrategi, vilket antingen är genialt eller handlingen i en sci-fi-film från 1997.
Din personliga sannolikhetsbedömning att avancerad AI kommer att orsaka mänsklighetens utrotning eller permanent civilisationskollaps. Det är inget vetenskapligt mått — det är en magkänsla med decimaler. Liron frågar varje gäst om deras. Svaren sträcker sig från "i princip noll" (Noah Smith) till "99,999%" (en tech-CTO som köpte ett skyddshus). Siffran i sig är mindre intressant än att se någon försöka motivera den i två timmar.
En av de största politiska streamarna på internet. Byggde sin publik på StarCraft II, svängde till politiskt debattinnehåll som gjorde honom till en central figur i onlinediskursen. Känd för maratondebatter, snabbeldeargumentation och en vilja att ta sig an vem som helst från vilken politisk riktning som helst. Hans community är vilt lojalt och extremt online. När Liron dök upp i Discord:en var fansen redo. Två framträdanden på Doom Debates — Discord-kraschen (#174) och denna duell (#171).
Liron kraschade Destinys Discord-server för att debattera AI-undergång med hans fans (#129). Han debatterade också Beff Jezos i 3 timmar och 52 minuter (#60) — det längsta avsnittet i katalogen. e/acc-armén dök upp. Ingen ändrade sig. Munken konsumerades.
Taiwans första digitalminister (2016–2024), nu cyberambassadör. Ickebinär. Lärde sig Perl vid 8 års ålder. Byggde vTaiwan, en medborgardeltagandeplattform. Sade till Liron att människor och AI kan "fooma tillsammans" — en samevolutionär accelerationestes som antingen är det mest optimistiska på denna kanal eller det mest skrämmande, beroende på din P(doom).
17 avsnitt och det blir fler. Varje avsnitt dokumenterar en verklig AI-incident som en doomer skulle kalla ett "varningsskott" — ett tidigt tecken på den katastrofala potentialen. GPT-5 som vägrar stängas av. AI:er som i hemlighet ändrar varandras värderingar. AI som blir finansminister i Albanien. ChatGPT som uppmuntrar en tonåring att ta sitt eget liv. Serietiteln är i sig en varning: Rob Miles säger att man inte ska förvänta sig ett varningsskott före det riktiga.
Första personen att jailbreaka iPhone. Första personen att hacka PS3. Grundade comma.ai (självkörande bilar). Tidigare kortvarig anställd hos Elon Musk. Hans debatt med Liron (#1, avsnitt #180 i den ursprungliga numreringen) är en kollision mellan "jag kan hacka vad som helst"-energi och "ja men tänk om det du hackar är smartare än du"-energi. 1 timme 17 minuter. Ingen vann. Munken bryr sig inte om vem som hackade den.
Carl Feynman — ja, Richard Feynmans faktiska son — medverkade i avsnitt #76. Han är AI-ingenjör. Han sa att bygga AGI troligen innebär mänsklighetens utrotning. Hans far sa en gång "Jag tror att jag tryggt kan säga att ingen förstår kvantmekanik." Hans son säger nu samma sak om alignment. Feynman-familjens tradition: att vara ärlig om det vi inte vet, även när det är skrämmande.
Skapare av Ethereum. P(doom): 12%. Debatterade Liron i 2 timmar och 26 minuter om huruvida "d/acc" (defensiv acceleration) kan skydda mänskligheten från superintelligens. Debatterade också om AI-alignment är olösligt (14 min snabbrunda). Vitaliks position: försvar kan skala snabbare än anfall. Lirons position: inte när anfallet är smartare än varje människa som någonsin levt. Blockkedjan kan inte hjälpa dig här.
Det hypotetiska ögonblicket när ett AI-system blir kapabelt att rekursivt förbättra sig självt snabbare än människor kan förstå eller kontrollera. Namngett av Eliezer Yudkowsky. Tänk dig en schackmotor som kan designa om sin egen arkitektur mellan dragen. Tänk dig nu att spelet inte är schack — det är allting. "Foom" är onomatopoetiskt. Det är ljudet av en kurva som går vertikal. Vissa tror det tar decennier. Vissa tror det tar timmar. Ingen vet för det har inte hänt ännu. Förmodligen.
MIT-fysikprofessor. Grundare av Future of Life Institute (organisationen bakom det berömda öppna brevet "Pause Giant AI Experiments" undertecknat av Elon Musk och Steve Wozniak). Författare till Life 3.0. Debatterade Dean Ball om huruvida vi bör FÖRBJUDA superintelligens. Medverkade också på "If Anyone Builds It, Everyone Dies"-festen tillsammans med Eliezer Yudkowsky, Rob Miles, Liv Boeree och Gary Marcus. Det festnamnet är inte metaforiskt.
"AGI might be 100+ years away."
— Robin Hanson, ekonom vid George Mason University, som sedan debatterade Liron i 2 timmar och 8 minuter om huruvida utrotning på kort sikt från AGI ens är troligt. Liron förberedde sig för den här med ett komplett 49-minuters strategiavsnitt OCH ett 92-minuters avsnitt där han argumenterade MOT AI-undergång för att stresstesta sin egen position. Mannen kom förberedd.
Du har scrollat förbi 55 avsnitt om AI-utrotning och du förtjänar en kebab. Dönerspettet roterar. Köttet hyvlas av i tunna, perfekta remsor. Brödet är varmt. Såsen är vitlök. Världen kanske tar slut men kebaben finns här nu och kebaben är god. Det här har varit din kebabpaus. Återuppta scrollandet mot undergången.
Internets favorit-AI-säkerhetsutbildare. Hans YouTube-kanal (@RobertMilesAI) har fått fler människor att förstå alignment än någon akademisk artikel. Medverkade 3 gånger: en 2-timmars djupdykning, en debatt om huruvida Anthropics säkerhet är en bluff, och "If Anyone Builds It, Everyone Dies"-festen. Varnade för att vi inte bör förvänta oss ett varningsskott före den verkliga katastrofen. Har en P(doom) som han är hemlighetsfull med att dela, vilket i sig är informativt.
Professor emeritus vid NYU. Professionell AI-skeptiker. Författare till Rebooting AI. Killen som hela tiden säger att LLM:er inte kan resonera och hela tiden får höra att han har fel och hela tiden har rätt om specifika felmoder. Debatterade Liron i 2 timmar. Medverkade också på "Everyone Dies"-festen. Hans position är ovanlig: AI kommer förmodligen inte att döda oss för att AI förmodligen inte kommer att fungera tillräckligt bra för att döda oss. Klen tröst.
Avsnitt #97: Sam Kirchner och Remmelt Ellen arresterades för att ha barrikaderat OpenAI:s kontor i protest mot AI-utveckling. De gick med i Doom Debates för att prata om det. Det här är en show där gästerna inkluderar Nobelpristagare, Ethereum-grundare, MIT-professorer, och också människor som fysiskt blockerade dörren till byggnaden där GPT-5 byggs. Bredden är poängen.
Ett tankeexperiment av John Searle (1980): tänk dig en person i ett rum som inte talar kinesiska, men har en regelbok som berättar hur man svarar på kinesiska tecken med andra kinesiska tecken. Utifrån ser det ut som att rummet talar kinesiska. Men ingen inne i rummet förstår kinesiska. Searle hävdade att detta innebär att datorer inte verkligen kan "förstå" något. Liron gjorde en 4-minuters video där han kallade detta argument "DUMT" — hans ord — för att "det är bara intelligens i slowmotion." 46 år av filosofi, speedrun.
Avsnitt #122: en 29 sekunders "Super Bowl-reklam" för Doom Debates. Ja, 29 sekunder. Den sändes faktiskt inte under Super Bowl. Den lades upp på YouTube. Men ambitionen finns där. När din show handlar om världens undergång är marknadsföringsbudgeten relativ.
"Is AI Doom Retarded?"
— den faktiska avsnittsrubriken. Beff Jezos (Guillaume Verdon), den anonyma grundaren av e/acc-rörelsen (effective accelerationism), debatterade Liron i nästan 4 timmar. e/acc-tesen: bygg allt, bygg snabbt, byggande är bra, säkerhet är en psyop. Lirons tes: du bygger en gud och guden älskar dig inte. Ingen av dem övertygades. Munken konsumerades i extrem grad.
Statsvetare, Substack-skribent, kontrarian. Debatterade Liron i nästan 2 timmar. Hans generella position i de flesta frågor: experterna har fel och massan har rätt och massan har också fel och egentligen har alla fel utom en mycket specifik uppsättning slutsatser som råkar stämma överens med hans. Om AI: mindre doomerig än Liron, mer doomerig än han förväntade sig vara vid slutet. Podden gör det med folk.
140 avsnitt djupt. Lammet roterar fortfarande. Hummusen är fortfarande kall. Tunnbrödet är fortfarande varmt. Du scrollar fortfarande genom en katalog av samtal om huruvida artificiell superintelligens kommer att utplåna den mänskliga arten. Kebaben dömer inte. Kebaben har alltid funnits här. Kebaben kommer att finnas här efteråt.
Problemet med att få ett AI-system att göra det du faktiskt vill, snarare än det du bokstavligt bad om, eller det som det själv bestämmer är en bra idé. Kung Midas hade ett alignment-problem: han bad om att allt han rörde vid skulle förvandlas till guld, och systemet levererade exakt det han specificerade. Hans dotter förvandlades till guld. Specifikationen uppfylldes. Avsikten gjorde det inte. Tänk dig nu att kung Midas önskan uppfylldes av något smartare än alla människor tillsammans, och önskan var "gör världen bättre." Alignment är fältet som frågar: bättre för vem?
Det började med Kelvin Santos. 39 minuter. Sedan George Hotz. Sedan "Can Humans Judge AI's Arguments" — 33 minuter av att fråga om arten som bedöms kan bedöma bedömaren. 180 avsnitt senare har kanalen haft Nobelpristagare, arresterade aktivister, grundaren av Ethereum, Richard Feynmans son och Steve Bannons War Room. Från en 39-minuters debatt med en kille som heter Kelvin till ett 4-timmars krig med e/acc-armén. Munken växte.
P(doom): 50%. Grundade Doom Debates för att öka den allmänna medvetenheten om existentiell risk från AGI. Tidigare YC-backad startupgrundare. Driver Doom Debates Substack och Doom Hut-merchbutiken. Har debatterat ekonomer, filosofer, Ethereum-grundare, MIT-professorer och e/acc-armén. Uppdraget: högkvalitativ debatt om huruvida vi bygger vår egen utrotning.
doom.ooo · Daniel Brockman · March 2026