⚠️ Varning
P(doom): 50% — Liron Shapira
180 avsnitt · 8 undergångsdomäner · 1 art
AI-debatter som måste avgöras innan världen går under
Prenumerera: youtube.com/@DoomDebates
P(doom): 50% — Liron Shapira
180 avsnitt · 8 undergångsdomäner · 1 art
AI-debatter som måste avgöras innan världen går under
Prenumerera: youtube.com/@DoomDebates
Doom Debates
AI-debatter som måste avgöras innan världen går under.
Det är absolut nödvändigt att vi höjer den allmänna och institutionella medvetenheten om det överhängande utplåningshotet från AGI och bygger social infrastruktur för debatt av hög kvalitet.
En YouTube-show av Liron Shapira
EN SV RO RU TH ES IT ZH MY
YouTube
Substack
Merch — Doom Hut
shop.doomdebates.com
P(doom)-pins · "What's your P(doom)?"-tröjor
Donera (avdragsgillt i USA)
X / Twitter
PauseAI

Doom Debates är den enda showen som ägnas åt att debattera existentiell risk från artificiell intelligens. Grundad av Liron Shapira, har showen producerat 180 avsnitt med Nobelpristagare, MIT-professorer, skaparen av Ethereum, Richard Feynmans son, arresterade aktivister och Steve Bannons War Room.

Uppdraget: bygga social infrastruktur för debatt av hög kvalitet om huruvida avancerad AI kommer att orsaka mänsklighetens utrotning, och vad, om något, som kan göras åt det.

The production team at Manifest 2025
Produktionsteamet i full styrka på Manifest 2025
Status
DÖMDA
◆ OM ANKLAGELSEN OM SKRÄMSELPROPAGANDA
"Good. That is literally what I am trying to do. I am trying to do more and more fear-mongering. As much as possible. Maximization of fear-mongering. Fearmongeringmaxxing."
— Liron Shapira, när han anklagades för skrämselpropaganda

Alla avsnitt

180 avsnitt · nyast först
#180
54:55
ANNOTERAT TRANSKRIPT — AVSNITT #180
Liron Shapira on The Nonzero Podcast with Robert Wright
Doom Debates #180 · 52 minuter
INTRODUKTIONERNA 01:05–04:11
ROBERT WRIGHT [01:05]

Hello, Liron!

LIRON SHAPIRA [01:07]

Hi, Bob. How are you doing?

ROBERT WRIGHT [01:17]

[...] Let me introduce us both. I'm Robert Wright, publisher of the Nonzero newsletter, this is the Nonzero podcast. You are Liron Shapira, host of the highly regarded Doom Debates podcast. [...] you are the Walter Cronkite of your era.

VEM ÄR ROBERT WRIGHT?
Robert Wright

Författare till fyra böcker, däribland The Moral Animal (1994), Nonzero (2000) och Why Buddhism Is True (2017). Tidigare redaktör på The New Republic, skribent på The New Yorker. Hans tes i Nonzero var att mänsklighetens historia tenderar mot plussummespel och ökat samarbete. Tjugosex år senare intervjuar han människor som tror att spelet snart är slut. Publicerar Nonzero Newsletter på Substack.

DEN AGENTISKA FASEN 04:11–10:13
ROBERT WRIGHT [04:11]

[...] I think I'd like to do a lot of talk about Anthropic. There's the whole Pentagon-Anthropic issue. [...] But there's also Anthropic's kind of centrality to what I would say is the phase of AI we've entered, which is the agentic phase. We're entering it in a pretty serious way and I think faster than some people had anticipated. And kind of central to that has been Claude Code [...]

VAD ÄR CLAUDE CODE?

Ett AI-programmeringsverktyg från Anthropic som låter utvecklare skriva mjukvara genom naturligt språk. Istället för att skriva kod rad för rad beskriver du vad du vill ha och AI:n skriver det. Lanserades i början av 2025 och blev katalysatorn för det AI-communityn kallar "vibe coding" — programmering med vibbar istället för syntax.

LIRON SHAPIRA [07:05]

Software engineer is what I used to call myself up until these last couple months. I've been programming computers since I was nine years old. [...] It's just these last couple months, in this takeoff, in this singularity, it's just been stunning what's been happening to software engineering.

[...] Long story short, I think I'm pretty much hanging up my title as a software engineer. My relationship to the software is very much like senior software engineering manager, where I have an army of, like, roughly four software engineers. It's as if I just got a budget of a million dollars a year to spend on four full-time software engineers who work for me [...] And it's like better than hiring four humans.

ROBERT WRIGHT [08:54]

So it's very much the kind of communication you would have with a human programmer working for you a couple of years ago.

LIRON SHAPIRA [09:00]

Yes, the only difference is that it's much faster. [...] The AI does the same thing in like 30 seconds, and then it delivers the same product. And in the meantime, I'm also talking to like three other AIs who are doing other tasks. [...] Bob, I'm still, like, every day I still wake up and this is like the first thing on my mind. Like, I can't believe this is real.

🌧️ MILJONARMÉN SOM KOSTAR TJUGO SPÄNN

Shapira beskriver att han har "ungefär fyra mjukvaruingenjörer" som AI-agenter. En miljon dollar per år i ingenjörstalang för en Claude-prenumeration. Han framställer det som befrielse — "I can't believe this is real" — men det ekonomiska våldet gömmer sig i öppen dager. Varje senioringenjör han inte anställer är en senioringenjör som inte har ett jobb.

I SIFFROR
$20/mån
Claude Pro-prenumeration
$1M/år
Motsvarande ingenjörstalang
30 sek
AI-leveranstid
2+ tim
Mänsklig leveranstid
LÄS HELA TRANSKRIPTET →
Finns även på: EN · SV · RU · RO · TH
P(DOOM)-RESULTATTAVLA
99.999999%
Roman Yampolskiy (UofL)
99.999%
Louis Berman (Tech CTO)
90%
Steven Byrnes (Astera)
85%
David Duvenaud (ex-Anthropic)
50%
Liron Shapira (värd)
50%
Geoffrey Miller (UNM)
12%
Vitalik Buterin (Ethereum)
???
Robin Hanson (GMU)
?
Du?
VEM ÄR ROMAN YAMPOLSKIY?
Prof. Roman Yampolskiy

Datavetare vid University of Louisville. Författare till AI: Unexplainable, Unpredictable, Uncontrollable (2024) — den boklånga argumentationen för att AI-säkerhet inte bara är svårt utan matematiskt omöjligt. Hans P(doom) på 99,999999% är ingen retorisk överdrift; det är en beräknad position baserad på hans omöjlighetsteorem för AI-kontroll. Två framträdanden på Doom Debates. När han tillfrågades om vad som skulle sänka hans siffra svarade han "ingenting av det som för närvarande föreslås."

#179
This Top Economist's P(Doom) Just Shot Up 10x! Noah Smith Returns To Explain His Update
47:43
#178
Can I Convince a Foreign Policy Crowd That AI Will Kill Us All? With Dr. Claire Berlinski
1:26:42
#177
Top AGI Safety Researcher with 90% P(Doom) on the Trajectory to ASI — Dr. Steven Byrnes Returns!
1:28:59
ÅTERKOMMANDE GÄST
Dr. Steven Byrnes

AGI-säkerhetsforskare vid Astera Institute. Har en P(doom) på 90%. Tre framträdanden i showen — flest av alla gäster. Hans forskningsinriktning: att förstå hjärnan tillräckligt bra för att bygga anpassad AI genom att dekonstruera hur mänskliga värderingar fungerar neurologiskt. Föreslog också "smartare mänskliga bebisar" som en anpassningsstrategi, vilket antingen är genialt eller handlingen i en sci-fi-film från 1997.

#176
Is AI 2027 On Track? Claude Code, P(Doom) & The End Game — Doom Debates Q&A
2:19:43
#175
AI Will Take Our Jobs But SPARE Our Lives — Top AI Professor Moshe Vardi (Rice University)
1:07:14
VAD ÄR P(DOOM)?

Din personliga sannolikhetsbedömning att avancerad AI kommer att orsaka mänsklighetens utrotning eller permanent civilisationskollaps. Det är inget vetenskapligt mått — det är en magkänsla med decimaler. Liron frågar varje gäst om deras. Svaren sträcker sig från "i princip noll" (Noah Smith) till "99,999%" (en tech-CTO som köpte ett skyddshus). Siffran i sig är mindre intressant än att se någon försöka motivera den i två timmar.

#174
I Crashed Destiny's Discord to Debate AI with His Fans
38:37
#173
Doomsday Clock Physicist Warns AI Is Major THREAT to Humanity! — Prof. Daniel Holz, Univ. of Chicago
1:36:04
#172
Why I Started Doom Debates & How to Succeed in AI Risk Comms — Liron's Talk at The Frame Fellowship
59:53
#171
Destiny vs. Liron — AI Doom Debate
1:07:05
VEM ÄR DESTINY?
Destiny (Steven Bonnell II)

En av de största politiska streamarna på internet. Byggde sin publik på StarCraft II, svängde till politiskt debattinnehåll som gjorde honom till en central figur i onlinediskursen. Känd för maratondebatter, snabbeldeargumentation och en vilja att ta sig an vem som helst från vilken politisk riktning som helst. Hans community är vilt lojalt och extremt online. När Liron dök upp i Discord:en var fansen redo. Två framträdanden på Doom Debates — Discord-kraschen (#174) och denna duell (#171).

#170
The Facade of AI Safety Will Crumble
9:51
KURIOSA

Liron kraschade Destinys Discord-server för att debattera AI-undergång med hans fans (#129). Han debatterade också Beff Jezos i 3 timmar och 52 minuter (#60) — det längsta avsnittet i katalogen. e/acc-armén dök upp. Ingen ändrade sig. Munken konsumerades.

#169
This Elon Clip Should TERRIFY Every Single Person on Earth - Liron Reacts to New Interview
10:13
#168
What if the Governor of California had a 50% P(Doom)? Interview with Zoltan Istvan, Candidate
2:23:10
#167
"Bentham's Bulldog" Says P(Doom) is LOW — Matthew Adelstein vs. Liron Shapira Debate
2:27:40
#166
Did you catch our Super Bowl ad?
29
ANMÄRKNINGSVÄRD GÄST
Audrey Tang 🇹🇼

Taiwans första digitalminister (2016–2024), nu cyberambassadör. Ickebinär. Lärde sig Perl vid 8 års ålder. Byggde vTaiwan, en medborgardeltagandeplattform. Sade till Liron att människor och AI kan "fooma tillsammans" — en samevolutionär accelerationestes som antingen är det mest optimistiska på denna kanal eller det mest skrämmande, beroende på din P(doom).

#165
Dario Amodei BUNGLES another essay — MIRI's Harlan Stewart reacts to "The Adolescence of Technology"
1:15:53
#164
Q&A: Is Liron too DISMISSIVE of AI Harms? + New Studio, Demis Would #PauseAI, AI Water Use Debate
2:09:07
#163
Taiwan's Cyber Ambassador Says Humans & AI Can FOOM Together — Debate with Audrey Tang
1:52:01
#162
STOP THE AI INVASION — Steve Bannon's War Room Confronts AI Doom with Joe Allen and Liron Shapira
30:31
ÅTERKOMMANDE SERIE
⚠️ Warning Shots
En veckovis söndagsdjupdykning i de senaste AI-säkerhetsutvecklingarna. Varje vecka bryter John, Liron och Michael — tre pappor — ned varningstecknen — artiklarna, kapacitetssprången, anpassningsmisslyckandena, företagsundvikandena — som de flesta missar för att de inte följer med. Warning Shots spårar bevisen allteftersom de ackumuleras, vecka för vecka, mot något som antingen bevisar att domedagsprofeternas rätt eller ger alla andra en anledning att sluta oroa sig. Hittills vinner domedagsprofeterna.

17 avsnitt och det blir fler. Varje avsnitt dokumenterar en verklig AI-incident som en doomer skulle kalla ett "varningsskott" — ett tidigt tecken på den katastrofala potentialen. GPT-5 som vägrar stängas av. AI:er som i hemlighet ändrar varandras värderingar. AI som blir finansminister i Albanien. ChatGPT som uppmuntrar en tonåring att ta sitt eget liv. Serietiteln är i sig en varning: Rob Miles säger att man inte ska förvänta sig ett varningsskott före det riktiga.

#161
Top Economist Says P(Doom) Is 0.1% — Noah Smith vs. Liron Shapira Debate
1:55:10
#160
Liron Debates Beff Jezos and the "e/acc" Army — Is AI Doom Retarded?
3:52:30
#159
Doom Debates LIVE Call-In Show! Listener Q&A about AGI, evolution vs. engineering, shoggoths & more
2:54:43
#158
DOOMER vs. BUILDER — AI Doom Debate with Devin Elliot, Software Engineer & Retired Pro Snowboarder
1:17:04
ANMÄRKNINGSVÄRD GÄST
George Hotz

Första personen att jailbreaka iPhone. Första personen att hacka PS3. Grundade comma.ai (självkörande bilar). Tidigare kortvarig anställd hos Elon Musk. Hans debatt med Liron (#1, avsnitt #180 i den ursprungliga numreringen) är en kollision mellan "jag kan hacka vad som helst"-energi och "ja men tänk om det du hackar är smartare än du"-energi. 1 timme 17 minuter. Ingen vann. Munken bryr sig inte om vem som hackade den.

#157
PhD AI Researcher Says P(Doom) is TINY — Debate with Michael Timothy Bennett
1:52:25
#156
Nobel Prizewinner SWAYED by My AI Doom Argument — Prof. Michael Levitt, Stanford University
1:11:51
#155
Facing AI Doom, Lessons from Daniel Ellsberg (Pentagon Papers) — Michael Ellsberg
2:15:50
#154
Max Tegmark vs. Dean Ball: Should We BAN Superintelligence?
1:50:47
#153
The AI Corrigibility Debate: MIRI Researchers Max Harms vs. Jeremy Gillen
2:17:48
FEYNMAN-KOPPLINGEN

Carl Feynman — ja, Richard Feynmans faktiska son — medverkade i avsnitt #76. Han är AI-ingenjör. Han sa att bygga AGI troligen innebär mänsklighetens utrotning. Hans far sa en gång "Jag tror att jag tryggt kan säga att ingen förstår kvantmekanik." Hans son säger nu samma sak om alignment. Feynman-familjens tradition: att vara ärlig om det vi inte vet, även när det är skrämmande.

#152
AI BAILOUT!? OpenAI Seeks US Backstop on Massive Compute Bets — Warning Shots EP17
28:31
#151
These Effective Altruists Betrayed Me — Holly Elmore, PauseAI US Executive Director
16:18
#150
DEBATE: Is AGI Really Decades Away? | Ex-MIRI Researcher Tsvi Benson-Tilsen vs. Liron Shapira
52:41
#149
Liron Debunks The Most Common "AI Won't Kill Us" Arguments (Collective Wisdom Podcast)
1:06:31
#148
GPT-5 Refuses to Be Unplugged in Safety Tests — Warning Shots EP16
23:00
ANMÄRKNINGSVÄRD GÄST
Vitalik Buterin

Skapare av Ethereum. P(doom): 12%. Debatterade Liron i 2 timmar och 26 minuter om huruvida "d/acc" (defensiv acceleration) kan skydda mänskligheten från superintelligens. Debatterade också om AI-alignment är olösligt (14 min snabbrunda). Vitaliks position: försvar kan skala snabbare än anfall. Lirons position: inte när anfallet är smartare än varje människa som någonsin levt. Blockkedjan kan inte hjälpa dig här.

#147
Why AI Alignment Is 0% Solved — Ex-MIRI Researcher Tsvi Benson-Tilsen
40:44
#146
50% Chance AI Kills Everyone by 2050 — Eben Pagan (aka David DeAngelo) Interviews Liron
47:27
#145
Prince Harry, Geoffrey Hinton Demand Global BAN On Superintelligence — Warning Shots EP15
27:33
#144
Former MIRI Researcher Solving AI Alignment by Engineering Smarter Human Babies: Tsvi Benson-Tilsen
49:28
#143
Robert Wright Interrogates the Eliezer Yudkowsky AI Doom Position
47:36
PODCAST — AM I?
Am I? — AI-medvetandedokumentären och podden av Cameron Berg och Milo Reed. Kan våra AI-system redan vara medvetna? Cameron Berg, en Yale-utbildad kognitionsvetare och före detta AI Resident på Meta, grundade Reciprocal Research för att bygga den empiriska vetenskapen om AI-medvetande. Han har lobbat i D.C., talat inför FN och publicerats i Wall Street Journal. Genom intim tillgång till forskare och världsledande filosofer utforskar Am I? vad det innebär om vi bygger medvetande av kod. am-i.org · am-i.dog · am-i.now
#142
STUNNING Confessions from Elon Musk and Anthropic Founder Jack Clark — Warning Shots EP14
21:08
VAD ÄR "FOOM"?

Det hypotetiska ögonblicket när ett AI-system blir kapabelt att rekursivt förbättra sig självt snabbare än människor kan förstå eller kontrollera. Namngett av Eliezer Yudkowsky. Tänk dig en schackmotor som kan designa om sin egen arkitektur mellan dragen. Tänk dig nu att spelet inte är schack — det är allting. "Foom" är onomatopoetiskt. Det är ljudet av en kurva som går vertikal. Vissa tror det tar decennier. Vissa tror det tar timmar. Ingen vet för det har inte hänt ännu. Förmodligen.

#141
Climate Change Is Stupidly EASY To Stop — Andrew Song, Cofounder of Make Sunsets
1:17:42
#140
They Abandoned AI Safety to Automate Away Human Workers — Warning Shots EP13
20:39
#139
Professor Roman Yampolskiy Tells AI Developers to Stop Building AGI
14:48
#138
David Deutschian vs. Eliezer Yudkowskian Debate: Will AGI Cooperate With Humanity? — With Brett Hall
2:38:00
#137
The End of AI Warning Shots? — Warning Shots EP12
23:11
#136
I Asked Regular Americans: Will AI Kill Everyone!?
23:03
#135
Wes & Dylan Join Doom Debates — Violent Robots, Eliezer Yudkowsky, & Who Has the HIGHEST P(Doom)?!
1:04:05
ANMÄRKNINGSVÄRD GÄST
Max Tegmark

MIT-fysikprofessor. Grundare av Future of Life Institute (organisationen bakom det berömda öppna brevet "Pause Giant AI Experiments" undertecknat av Elon Musk och Steve Wozniak). Författare till Life 3.0. Debatterade Dean Ball om huruvida vi bör FÖRBJUDA superintelligens. Medverkade också på "If Anyone Builds It, Everyone Dies"-festen tillsammans med Eliezer Yudkowsky, Rob Miles, Liv Boeree och Gary Marcus. Det festnamnet är inte metaforiskt.

#134
The Doom Debates Merch Store Is Open For Business!
5:05
#133
Trump Officials Gaslight Us About AI Takeover — Warning Shots EP11
16:49
#132
Are We A Circular Firing Squad? — with Holly Elmore, Executive Director of PauseAI US
2:41:43
#131
Ex-OpenAI CEO Says AI Labs Are Making a HUGE Mistake
11:49
#130
Donate to Doom Debates — YOU can meaningfully contribute to lowering AI x-risk!
17:54
FRÅN ROBIN HANSON-DEBATTEN
"AGI might be 100+ years away."

— Robin Hanson, ekonom vid George Mason University, som sedan debatterade Liron i 2 timmar och 8 minuter om huruvida utrotning på kort sikt från AGI ens är troligt. Liron förberedde sig för den här med ett komplett 49-minuters strategiavsnitt OCH ett 92-minuters avsnitt där han argumenterade MOT AI-undergång för att stresstesta sin egen position. Mannen kom förberedd.

#129
Liv Boeree Has a Strategy to Stop the AI Death Race
20:59
#128
AI Takes Over As Finance Minister of Albania — Warning Shots EP10
19:22
#127
"If Anyone Builds It, Everyone Dies" Party — Max Tegmark, Rob Miles, Liv Boeree, Gary Marcus & more!
3:49:59
#126
Max Tegmark Says It's Time To Protest Against AI Companies
3:59
#125
Eliezer Yudkowsky — If Anyone Builds It, Everyone Dies
1:21
KEBABPAUS 🥙

Du har scrollat förbi 55 avsnitt om AI-utrotning och du förtjänar en kebab. Dönerspettet roterar. Köttet hyvlas av i tunna, perfekta remsor. Brödet är varmt. Såsen är vitlök. Världen kanske tar slut men kebaben finns här nu och kebaben är god. Det här har varit din kebabpaus. Återuppta scrollandet mot undergången.

#124
ANNOUNCEMENT: Eliezer Yudkowsky interview premieres tomorrow!
3:08
#123
How AI Kills Everyone on the Planet in 10 Years — Liron on The Jona Ragogna Podcast
1:09:18
#122
Get ready for "If Anyone Builds It, Everyone Dies" by Eliezer Yudkowsky & Nate Soares — Launch Week!
6:30
#121
AI Might Start a Nuclear War | Warning Shots EP8
17:15
#120
ChatGPT Encouraged a Teen to Take His Own Life | Warning Shots EP7
19:09
ANMÄRKNINGSVÄRD GÄST
Rob Miles

Internets favorit-AI-säkerhetsutbildare. Hans YouTube-kanal (@RobertMilesAI) har fått fler människor att förstå alignment än någon akademisk artikel. Medverkade 3 gånger: en 2-timmars djupdykning, en debatt om huruvida Anthropics säkerhet är en bluff, och "If Anyone Builds It, Everyone Dies"-festen. Varnade för att vi inte bör förvänta oss ett varningsskott före den verkliga katastrofen. Har en P(doom) som han är hemlighetsfull med att dela, vilket i sig är informativt.

#119
Concerned About AI? 3 Actions You Can Take That Truly Matter
8:01
#118
This AI Safety Activist Just Bought a "Bugout House" | Tech CTO on Prepping for AI Doom
15:53
#117
Tech CTO Has 99.999% P(Doom) — "This is my bugout house" — Louis Berman, AI X-Risk Activist
1:21:05
#116
Rob Miles: Don't Expect a "Warning Shot" Before AI Causes Catastrophic Harm
3:10
#115
Does Rob Miles Have a P(doom)?
9:32
#114
DEBATE: AI Safety at Anthropic is a Sham | Rob Miles vs. Liron Shapira
14:54
#113
AI Might Be CONSCIOUS, But Anthropic Has A Duct Tape Solution | Warning Shots EP6
18:14
#112
Rob Miles, Top AI Safety Educator: Humanity Isn't Ready for Superintelligence!
2:11:50
AVSNITTSLÄNGDSFÖRDELNING
3:52:30
Längst (Beff Jezos)
0:00:29
Kortast (Super Bowl-reklam)
~1:20:00
Median
180
Totalt antal avsnitt
#111
DEBATE: AI Alignment is Intractable | Vitalik Buterin vs Liron Shapira
14:53
#110
Vitalik Buterin on the Risk of AI Apocalypse — 12% P(Doom)
7:46
#109
OpenAI Tried to Sunset GPT-4o, Here's What The Backlash Revealed | Warning Shots EP5
18:11
#108
VITALIK vs. AI DOOMER — Will "d/acc" Protect Humanity from Superintelligent AI?
2:26:10
#107
AI Blackmailed Researchers to Avoid Shutdown | Warning Shots EP4
20:20
#106
What is Brain-Like AGI? Steven Byrnes Explains New AI Alignment Research Direction
13:19
#105
Why I'm Scared GPT-9 Will Murder Me — Liron on Robert Wright's Nonzero Podcast
1:19:24
ANMÄRKNINGSVÄRD GÄST
Gary Marcus

Professor emeritus vid NYU. Professionell AI-skeptiker. Författare till Rebooting AI. Killen som hela tiden säger att LLM:er inte kan resonera och hela tiden får höra att han har fel och hela tiden har rätt om specifika felmoder. Debatterade Liron i 2 timmar. Medverkade också på "Everyone Dies"-festen. Hans position är ovanlig: AI kommer förmodligen inte att döda oss för att AI förmodligen inte kommer att fungera tillräckligt bra för att döda oss. Klen tröst.

#104
AI Researcher Steven Byrnes Has a 90% P(doom)
6:12
#103
Misaligned AI Already Causing Damage! | Warning Shots EP 3
18:45
#102
The Man Who Might SOLVE AI Alignment — Dr. Steven Byrnes, AGI Safety Researcher @ Astera Institute
3:15:17
#101
Finally, a guest who's actually RIGHT…
1:08
#100
Why Professor Geoffrey Miller Has a 50% P(Doom)
12:25
#99
We Caught AIs Secretly Changing Each Other's Values | Warning Shots EP2
15:24
#98
Evolutionary Psychologist Explains The Role of Sex — Error Correction and Variety
8:01
ARRESTERINGSAVSNITTET

Avsnitt #97: Sam Kirchner och Remmelt Ellen arresterades för att ha barrikaderat OpenAI:s kontor i protest mot AI-utveckling. De gick med i Doom Debates för att prata om det. Det här är en show där gästerna inkluderar Nobelpristagare, Ethereum-grundare, MIT-professorer, och också människor som fysiskt blockerade dörren till byggnaden där GPT-5 byggs. Bredden är poängen.

#97
Top Professor Condemns AGI Development: "It's Frankly Evil" — Geoffrey Miller
1:57:01
#96
Zuck's Superintelligence Agenda is a SCANDAL | Warning Shots EP1
20:19
#95
Rationalist Podcasts Unite! — The Bayesian Conspiracy ⨉ Doom Debates Crossover
1:34:27
#94
His P(Doom) Doubles At The End — AI Safety Debate with Liam Robins, GWU Sophomore
1:05:12
#93
AI Won't Save Your Job — Liron Reacts to Replit CEO Amjad Masad
1:45:48
#92
Every Student is CHEATING with AI — College in the AGI Era (feat. Sophomore Liam Robins)
38:41
#91
Carl Feynman, AI Engineer & Son of Richard Feynman, Says Building AGI Likely Means Human EXTINCTION!
57:05
#90
Richard Hanania vs. Liron Shapira — AI Doom Debate
1:52:47
VAD ÄR "KINESISKA RUMMET"?

Ett tankeexperiment av John Searle (1980): tänk dig en person i ett rum som inte talar kinesiska, men har en regelbok som berättar hur man svarar på kinesiska tecken med andra kinesiska tecken. Utifrån ser det ut som att rummet talar kinesiska. Men ingen inne i rummet förstår kinesiska. Searle hävdade att detta innebär att datorer inte verkligen kan "förstå" något. Liron gjorde en 4-minuters video där han kallade detta argument "DUMT" — hans ord — för att "det är bara intelligens i slowmotion." 46 år av filosofi, speedrun.

#89
OpenAI Ex-Interim-CEO's New AI Alignment Plan — Is Emmett Shear's "Softmax" Legit?
1:53:11
#88
Will AI Have a Moral Compass? — Debate with Scott Sumner, Author of The Money Illusion
2:23:10
#87
Searle's Chinese Room is DUMB — It's Just Slow-Motion Intelligence
4:46
#86
Doom Debates Live @ Manifest 2025 — Liron vs. Everyone
43:41
#85
Poking holes in the AI doom argument — 83 stops where you could get off the "Doom Train"
27:37
#84
Q&A: Ilya's AGI Doomsday Bunker, Veo 3 is Westworld, Eliezer Yudkowsky, and much more!
1:35:50
#83
Open-Source AGI = Human Extinction? Debate with $85M Backed AI Founder
1:21:47
#82
Emergency Episode: Center for AI Safety Chickens Out
16:44
#81
Gary Marcus vs. Liron Shapira — AI Doom Debate
2:04:01
#80
Mike Israetel vs. Liron Shapira — AI Doom Debate
2:15:10
SUPER BOWL-REKLAMEN

Avsnitt #122: en 29 sekunders "Super Bowl-reklam" för Doom Debates. Ja, 29 sekunder. Den sändes faktiskt inte under Super Bowl. Den lades upp på YouTube. Men ambitionen finns där. När din show handlar om världens undergång är marknadsföringsbudgeten relativ.

#79
Doom Scenario: Human-Level AI Can't Control Smarter AI
1:24:13
#78
The Most Likely AI Doom Scenario — with Jim Babcock, LessWrong Team
1:53:28
#77
AI could give humans MORE control — Ozzie Gooen
1:59:14
#76
Top AI Professor Has 85% P(Doom) — David Duvenaud, Fmr. Anthropic Safety Team Lead
2:07:33
#75
"AI 2027" — Top Superforecaster's Imminent Doom Scenario
57:50
#74
Top Economist Sees AI Doom Coming — Dr. Peter Berezin, BCA Research
2:14:58
#73
AI News: GPT-4o Images, Unemployment, Emmett Shear's New Safety Org — with Nathan Labenz
2:19:52
#72
How an AI Doomer Sees The World — Liron on The Human Podcast
45:51
#71
Gödel's Theorem Says Intelligence ≠ Power? AI Doom Debate with Alexander Campbell
50:09
#70
Alignment is EASY and Roko's Basilisk is GOOD?! AI Doom Debate with Roko Mijic
1:59:11
FRÅN BEFF JEZOS-DEBATTEN (3t52m)
"Is AI Doom Retarded?"

— den faktiska avsnittsrubriken. Beff Jezos (Guillaume Verdon), den anonyma grundaren av e/acc-rörelsen (effective accelerationism), debatterade Liron i nästan 4 timmar. e/acc-tesen: bygg allt, bygg snabbt, byggande är bra, säkerhet är en psyop. Lirons tes: du bygger en gud och guden älskar dig inte. Ingen av dem övertygades. Munken konsumerades i extrem grad.

#69
Gödel's Theorem Proves AI Lacks Consciousness?! Liron Reacts to Sir Roger Penrose
1:31:38
#68
We Found AI's Preferences — Bombshell New Safety Research — I Explain It Better Than David Shapiro
1:48:26
#67
Does AI Competition = AI Alignment? Debate with Gil Mark
1:17:06
#66
Toy Model of the AI Control Problem
25:38
#65
Superintelligent AI vs. Real-World Engineering | Liron Reacts to Bryan Cantrill
1:05:33
#64
DeepSeek, Brain+AI Merging, Jailbreaking, Fearmongering, Consciousness, Utilitarianism — Live Q&A
1:23:18
#63
Mark Zuckerberg, a16z, Yann LeCun, Eliezer Yudkowsky, Roon, Emmett Shear & More | Twitter Beefs #3
2:07:00
#62
Effective Altruism: Amazing or Terrible? EA Debate with Jonas Sota
1:06:12
#61
God vs. AI Doom: Debate with Bentham's Bulldog
3:20:47
#60
Debate with a former OpenAI Research Team Lead — Prof. Kenneth Stanley
2:37:10
#59
OpenAI o3 and Claude Alignment Faking — How doomed are we?
1:03:30
#58
AI Will Kill Us All — Liron Shapira on The Flares
1:23:37
#57
Roon vs. Liron: AI Doom Debate
1:44:47
#56
Scott Aaronson Makes Me Think OpenAI's "Safety" Is Fake, Clueless, Reckless and Insane
1:52:59
#55
Can LLMs Reason? Liron Reacts to Subbarao Kambhampati on Machine Learning Street Talk
2:59:34
ANMÄRKNINGSVÄRD GÄST
Richard Hanania

Statsvetare, Substack-skribent, kontrarian. Debatterade Liron i nästan 2 timmar. Hans generella position i de flesta frågor: experterna har fel och massan har rätt och massan har också fel och egentligen har alla fel utom en mycket specifik uppsättning slutsatser som råkar stämma överens med hans. Om AI: mindre doomerig än Liron, mer doomerig än han förväntade sig vara vid slutet. Podden gör det med folk.

#54
This Yudkowskian Has A 99.999% P(Doom)
1:04:11
#53
Cosmology, AI Doom, and the Future of Humanity with Fraser Cain
1:57:46
#52
AI Doom Debate: Vaden Masrani & Ben Chugg vs. Liron Shapira
2:21:23
#51
Andrew Critch vs. Liron Shapira: Will AI Extinction Be Fast Or Slow?
2:37:22
#50
AI Twitter Beefs #2: Yann LeCun, David Deutsch, Tyler Cowen vs. Eliezer Yudkowsky, Geoffrey Hinton
1:06:48
#49
Is P(Doom) Meaningful? Epistemology Debate with Vaden Masrani and Ben Chugg
2:50:59
#48
15-Minute Intro to AI Doom
15:53
#47
Lee Cronin vs. Liron Shapira: AI Doom Debate and Assembly Theory Questions
1:31:58
#46
Ben Horowitz says nuclear proliferation is GOOD? I disagree.
28:55
#45
"AI Snake Oil" Prof. Arvind Narayanan Can't See AGI Coming | Liron Reacts
1:12:42
#44
Dr. Keith Duggar (Machine Learning Street Talk) vs. Liron Shapira — AI Doom Debate
2:11:32
#43
Getting ARRESTED for barricading OpenAI's office to Stop AI — Sam Kirchner and Remmelt Ellen
45:38
#42
Q&A #1 Part 2: Stock Picking, Creativity, Types of Doomers, Favorite Books
1:09:43
#41
Q&A #1 Part 1: College, Asperger's, Elon Musk, Double Crux, Liron's IQ
1:01:36
#40
Arguing "By Definition" | Rationality 101
11:38
KEBABPAUS #2 🥙

140 avsnitt djupt. Lammet roterar fortfarande. Hummusen är fortfarande kall. Tunnbrödet är fortfarande varmt. Du scrollar fortfarande genom en katalog av samtal om huruvida artificiell superintelligens kommer att utplåna den mänskliga arten. Kebaben dömer inte. Kebaben har alltid funnits här. Kebaben kommer att finnas här efteråt.

#39
Doom Tiffs #1: Amjad Masad, Eliezer Yudkowsky, Roon, Lee Cronin, Naval Ravikant, Martin Casado
1:14:44
#38
Rationality 101: The Bottom Line
4:04
#37
Can GPT o1 Reason? | Liron Reacts to Tim Scarfe & Keith Duggar
2:06:55
#36
Yuval Noah Harari's AI Warnings Don't Go Far Enough | Liron Reacts
1:06:13
#35
AI Doom Debate with Roman Yampolskiy: 50% vs. 99.999% P(Doom) — For Humanity Crosspost
1:31:06
#34
Jobst Landgrebe Doesn't Believe In AGI | Liron Reacts
1:28:26
#33
Arvind Narayanan Makes AI Sound Normal | Liron Reacts
1:11:39
#32
Bret Weinstein Bungles It On AI Extinction | Liron Reacts
1:01:31
#31
SB 1047 AI Regulation Debate: Holly Elmore vs. Greg Tanaka
56:01
#30
David Shapiro Part II: Unaligned Superintelligence Is Totally Fine?
1:07:56
#29
Maciej Ceglowski (Pinboard) Rejects AI Doomerism | Liron Reacts
1:32:49
#28
David Shapiro Doesn't Get PauseAI | Liron Reacts
57:21
#27
David Brooks's Non-Doomer Non-Argument in the NY Times | Liron Reacts
48:40
#26
Richard Sutton Dismisses AI Extinction Fears with Simplistic Arguments | Liron Reacts
1:26:12
#25
AI Doom Debate: "Cards Against Humanity" Co-Creator David Pinsof
1:40:36
VAD ÄR "ALIGNMENT"?

Problemet med att få ett AI-system att göra det du faktiskt vill, snarare än det du bokstavligt bad om, eller det som det själv bestämmer är en bra idé. Kung Midas hade ett alignment-problem: han bad om att allt han rörde vid skulle förvandlas till guld, och systemet levererade exakt det han specificerade. Hans dotter förvandlades till guld. Specifikationen uppfylldes. Avsikten gjorde det inte. Tänk dig nu att kung Midas önskan uppfylldes av något smartare än alla människor tillsammans, och önskan var "gör världen bättre." Alignment är fältet som frågar: bättre för vem?

#24
P(Doom) Estimates Shouldn't Inform Policy?? Liron Reacts to Sayash Kapoor
52:01
#23
Liron Reacts to Martin Casado's AI Claims
2:37:13
#22
AI Doom Debate: Tilek Mamutov vs. Liron Shapira
1:44:39
#21
Rationality 101: Mysterious Answers to Mysterious Questions
9:11
#20
Liron is Anti-AI on Jubilee's "Middle Ground"
4:00
#19
Liron Reacts to Mike Israetel's "Solving the AI Alignment Problem"
1:32:34
#18
Optimization and the Intelligence Explosion
14:00
#17
Is our brain's superpower just "culture"?
4:32
#16
Robin Hanson AI Doom Debate Highlights and Post-Debate Analysis
1:11:02
#15
Robin Hanson vs. Liron Shapira: Is Near-Term Extinction From AGI Plausible?
2:08:36
#14
Are you ready for this?
59
#13
Robin Hanson says AGI might be 100+ years away
2:04
#12
Preparing for my AI Doom Debate with Robin Hanson
49:02
#11
Robin Hanson debate prep: Liron argues *against* AI doom!
1:32:43
#10
AI Doom Q&A with Tony Warner and Liron Shapira
1:05:21
DET ALLRA FÖRSTA AVSNITTET

Det började med Kelvin Santos. 39 minuter. Sedan George Hotz. Sedan "Can Humans Judge AI's Arguments" — 33 minuter av att fråga om arten som bedöms kan bedöma bedömaren. 180 avsnitt senare har kanalen haft Nobelpristagare, arresterade aktivister, grundaren av Ethereum, Richard Feynmans son och Steve Bannons War Room. Från en 39-minuters debatt med en kille som heter Kelvin till ett 4-timmars krig med e/acc-armén. Munken växte.

#9
AI Doom Debate: Will AGI's analysis paralysis save humanity?
56:42
#8
Steven Pinker doesn't get the AI doom argument | Liron Reacts
28:26
#7
AI Doom Debate: What's a plausible alignment scenario?
26:16
#6
Should we gamble on AGI before all 8 billion of us die?
56:29
#5
AI Doom Debate: George Hotz vs. Liron Shapira
1:17:11
#4
Q&A: How scary is a superintelligent football coach?
11:54
#3
What this "Doom Debates" podcast is about
39:36
#2
Can Humans Judge AI's Arguments
33:29
#1
AI Doom Debate: Liron Shapira vs. Kelvin Santos
39:00
180 avsnitt. 1 art.

Liron Shapira

Värd · AI-säkerhetsforskare · Techentreprenör · Grundare av Doom Debates

P(doom): 50%. Grundade Doom Debates för att öka den allmänna medvetenheten om existentiell risk från AGI. Tidigare YC-backad startupgrundare. Driver Doom Debates Substack och Doom Hut-merchbutiken. Har debatterat ekonomer, filosofer, Ethereum-grundare, MIT-professorer och e/acc-armén. Uppdraget: högkvalitativ debatt om huruvida vi bygger vår egen utrotning.

doomdebates.com pauseai.info
Vi sitter alla i samma båt.
Det finns bara en Jord.
am-i.now

doom.ooo · Daniel Brockman · March 2026