⚠️ Внимание
P(doom): 50% — Liron Shapira
180 выпусков · 8 доменов гибели · 1 вид
Дебаты об ИИ, которые нужно решить, пока мир не погиб
Подписывайтесь: youtube.com/@DoomDebates
P(doom): 50% — Liron Shapira
180 выпусков · 8 доменов гибели · 1 вид
Дебаты об ИИ, которые нужно решить, пока мир не погиб
Подписывайтесь: youtube.com/@DoomDebates
Doom Debates
Дебаты об ИИ, которые необходимо решить до конца света.
Совершенно необходимо повысить осведомлённость общества и институтов о неминуемой угрозе вымирания от AGI и создать социальную инфраструктуру для качественной дискуссии.
YouTube-шоу Лирона Шапиры
EN SV RO RU TH ES IT ZH MY
YouTube
Substack
Мерч — Doom Hut
shop.doomdebates.com
Значки P(doom) · Футболки «What's your P(doom)?»
Пожертвовать (вычет из налогов)
X / Twitter
PauseAI

Doom Debates — единственное шоу, посвящённое дебатам об экзистенциальном риске от искусственного интеллекта. Основанное Лироном Шапирой, шоу выпустило 180 выпусков с участием нобелевских лауреатов, профессоров MIT, создателя Ethereum, сына Ричарда Фейнмана, арестованных активистов и студии War Room Стива Бэннона.

Миссия: создать социальную инфраструктуру для качественной дискуссии о том, приведёт ли продвинутый ИИ к вымиранию человечества и можно ли что-то с этим сделать.

The production team at Manifest 2025
Съёмочная команда в полном составе на Manifest 2025
Статус
ОБРЕЧЕНЫ
◆ ОБ ОБВИНЕНИИ В НАГНЕТАНИИ СТРАХА
"Good. That is literally what I am trying to do. I am trying to do more and more fear-mongering. As much as possible. Maximization of fear-mongering. Fearmongeringmaxxing."
— Лирон Шапира, в ответ на обвинение в нагнетании страха

Все выпуски

180 выпусков · сначала новые
#180
54:55
АННОТИРОВАННАЯ РАСШИФРОВКА — ВЫПУСК #180
Liron Shapira on The Nonzero Podcast with Robert Wright
Doom Debates #180 · 52 минуты
ПРЕДСТАВЛЕНИЕ 01:05–04:11
ROBERT WRIGHT [01:05]

Hello, Liron!

LIRON SHAPIRA [01:07]

Hi, Bob. How are you doing?

ROBERT WRIGHT [01:17]

[...] Let me introduce us both. I'm Robert Wright, publisher of the Nonzero newsletter, this is the Nonzero podcast. You are Liron Shapira, host of the highly regarded Doom Debates podcast. [...] you are the Walter Cronkite of your era.

КТО ТАКОЙ РОБЕРТ РАЙТ?
Robert Wright

Автор четырёх книг, включая The Moral Animal (1994), Nonzero (2000) и Why Buddhism Is True (2017). Бывший старший редактор The New Republic, штатный автор The New Yorker. Его тезис в Nonzero: история человечества движется к играм с положительной суммой и к большему сотрудничеству. Двадцать шесть лет спустя он берёт интервью у людей, которые считают, что игре скоро конец. Публикует Nonzero Newsletter на Substack.

АГЕНТНАЯ ФАЗА 04:11–10:13
ROBERT WRIGHT [04:11]

[...] I think I'd like to do a lot of talk about Anthropic. There's the whole Pentagon-Anthropic issue. [...] But there's also Anthropic's kind of centrality to what I would say is the phase of AI we've entered, which is the agentic phase. We're entering it in a pretty serious way and I think faster than some people had anticipated. And kind of central to that has been Claude Code [...]

ЧТО ТАКОЕ CLAUDE CODE?

Инструмент для программирования на основе ИИ от Anthropic, позволяющий разработчикам писать софт через разговор на естественном языке. Вместо того чтобы писать код строка за строкой, вы описываете, что вам нужно, а ИИ пишет код. Запущен в начале 2025 года — он стал катализатором того, что в ИИ-сообществе называют «вайб-кодинг» — программирование по ощущениям, а не по синтаксису.

LIRON SHAPIRA [07:05]

Software engineer is what I used to call myself up until these last couple months. I've been programming computers since I was nine years old. [...] It's just these last couple months, in this takeoff, in this singularity, it's just been stunning what's been happening to software engineering.

[...] Long story short, I think I'm pretty much hanging up my title as a software engineer. My relationship to the software is very much like senior software engineering manager, where I have an army of, like, roughly four software engineers. It's as if I just got a budget of a million dollars a year to spend on four full-time software engineers who work for me [...] And it's like better than hiring four humans.

ROBERT WRIGHT [08:54]

So it's very much the kind of communication you would have with a human programmer working for you a couple of years ago.

LIRON SHAPIRA [09:00]

Yes, the only difference is that it's much faster. [...] The AI does the same thing in like 30 seconds, and then it delivers the same product. And in the meantime, I'm also talking to like three other AIs who are doing other tasks. [...] Bob, I'm still, like, every day I still wake up and this is like the first thing on my mind. Like, I can't believe this is real.

🌧️ АРМИЯ ЗА МИЛЛИОН ДОЛЛАРОВ, КОТОРАЯ СТОИТ ДВАДЦАТЬ БАКСОВ

Шапира описывает, как у него есть «примерно четыре программиста» в виде ИИ-агентов. Миллион долларов в год инженерного таланта за подписку на Claude. Он подаёт это как освобождение — «I can't believe this is real» — но экономическое насилие прячется на виду. Каждый senior-инженер, которого он не нанимает, — это senior-инженер без работы.

В ЦИФРАХ
$20/мес
Подписка Claude Pro
$1М/год
Эквивалент инженерного таланта
30 сек
Время выполнения ИИ
2+ часа
Время выполнения человеком
ЧИТАТЬ ПОЛНУЮ РАСШИФРОВКУ →
Также доступно на: EN · SV · RU · RO · TH
ТАБЛИЦА P(DOOM)
99.999999%
Roman Yampolskiy (UofL)
99.999%
Louis Berman (Tech CTO)
90%
Steven Byrnes (Astera)
85%
David Duvenaud (ex-Anthropic)
50%
Liron Shapira (ведущий)
50%
Geoffrey Miller (UNM)
12%
Vitalik Buterin (Ethereum)
???
Robin Hanson (GMU)
?
Вы?
КТО ТАКОЙ РОМАН ЯМПОЛЬСКИЙ?
Проф. Роман Ямпольский

Учёный-информатик из Университета Луисвилла. Автор книги AI: Unexplainable, Unpredictable, Uncontrollable (2024) — развёрнутого аргумента о том, что безопасность ИИ не просто сложна, а математически невозможна. Его P(doom) в 99,999999% — не риторический приём, а расчётная позиция, основанная на его теоремах о невозможности контроля ИИ. Два появления на Doom Debates. Когда его спросили, что могло бы снизить его оценку, он ответил: «ничего из того, что сейчас предлагается».

#179
This Top Economist's P(Doom) Just Shot Up 10x! Noah Smith Returns To Explain His Update
47:43
#178
Can I Convince a Foreign Policy Crowd That AI Will Kill Us All? With Dr. Claire Berlinski
1:26:42
#177
Top AGI Safety Researcher with 90% P(Doom) on the Trajectory to ASI — Dr. Steven Byrnes Returns!
1:28:59
ПОСТОЯННЫЙ ГОСТЬ
Д-р Стивен Бёрнс

Исследователь безопасности AGI в Astera Institute. P(doom): 90%. Три появления в шоу — больше, чем у любого другого гостя. Направление его исследований: понять мозг достаточно хорошо, чтобы создать aligned ИИ путём обратной инженерии того, как человеческие ценности работают на нейрологическом уровне. Также предложил «более умных человеческих младенцев» как стратегию alignment — что либо гениально, либо является сюжетом научно-фантастического фильма 1997 года.

#176
Is AI 2027 On Track? Claude Code, P(Doom) & The End Game — Doom Debates Q&A
2:19:43
#175
AI Will Take Our Jobs But SPARE Our Lives — Top AI Professor Moshe Vardi (Rice University)
1:07:14
ЧТО ТАКОЕ P(DOOM)?

Ваша личная оценка вероятности того, что продвинутый ИИ приведёт к вымиранию человечества или необратимому краху цивилизации. Это не научное измерение — это проверка на ощущения с десятичными знаками. Лирон спрашивает каждого гостя. Ответы варьируются от «практически ноль» (Noah Smith) до «99,999%» (CTO из технологической компании, который купил убежище на случай апокалипсиса). Само число менее интересно, чем наблюдать, как кто-то пытается его обосновать в течение двух часов.

#174
I Crashed Destiny's Discord to Debate AI with His Fans
38:37
#173
Doomsday Clock Physicist Warns AI Is Major THREAT to Humanity! — Prof. Daniel Holz, Univ. of Chicago
1:36:04
#172
Why I Started Doom Debates & How to Succeed in AI Risk Comms — Liron's Talk at The Frame Fellowship
59:53
#171
Destiny vs. Liron — AI Doom Debate
1:07:05
КТО ТАКОЙ DESTINY?
Destiny (Steven Bonnell II)

Один из крупнейших политических стримеров в интернете. Набрал аудиторию на StarCraft II, затем перешёл к политическим дебатам, став центральной фигурой онлайн-дискурса. Известен марафонскими дебатами, стремительной аргументацией и готовностью спорить с кем угодно из любого политического лагеря. Его комьюнити яростно лояльно и предельно онлайн. Когда Лирон появился в Discord, фанаты были наготове. Два появления на Doom Debates — вторжение в Discord (#174) и очная дуэль (#171).

#170
The Facade of AI Safety Will Crumble
9:51
ИНТЕРЕСНЫЙ ФАКТ

Лирон ворвался на Discord-сервер Destiny, чтобы дебатировать с его фанатами об ИИ-гибели (#129). Он также дебатировал с Beff Jezos 3 часа 52 минуты (#60) — самый длинный выпуск в каталоге. Армия e/acc явилась. Никто не изменил мнения. Пончик был съеден.

#169
This Elon Clip Should TERRIFY Every Single Person on Earth - Liron Reacts to New Interview
10:13
#168
What if the Governor of California had a 50% P(Doom)? Interview with Zoltan Istvan, Candidate
2:23:10
#167
"Bentham's Bulldog" Says P(Doom) is LOW — Matthew Adelstein vs. Liron Shapira Debate
2:27:40
#166
Did you catch our Super Bowl ad?
29
ЗАМЕТНЫЙ ГОСТЬ
Audrey Tang 🇹🇼

Первый министр цифрового развития Тайваня (2016–2024), ныне кибер-посол. Небинарная персона. Самостоятельно выучил(а) Perl в 8 лет. Создал(а) vTaiwan — платформу гражданского участия. Сказал(а) Лирону, что люди и ИИ могут «фумнуть вместе» — тезис о со-эволюционном ускорении, который является либо самой оптимистичной вещью на канале, либо самой пугающей, в зависимости от вашего P(doom).

#165
Dario Amodei BUNGLES another essay — MIRI's Harlan Stewart reacts to "The Adolescence of Technology"
1:15:53
#164
Q&A: Is Liron too DISMISSIVE of AI Harms? + New Studio, Demis Would #PauseAI, AI Water Use Debate
2:09:07
#163
Taiwan's Cyber Ambassador Says Humans & AI Can FOOM Together — Debate with Audrey Tang
1:52:01
#162
STOP THE AI INVASION — Steve Bannon's War Room Confronts AI Doom with Joe Allen and Liron Shapira
30:31
РЕГУЛЯРНАЯ РУБРИКА
⚠️ Warning Shots
Еженедельный воскресный глубокий разбор последних событий в сфере безопасности ИИ. Каждую неделю Джон, Лирон и Майкл — три отца — разбирают тревожные сигналы — статьи, скачки возможностей, провалы alignment, корпоративные уловки — которые большинство людей пропускают, потому что не обращают внимания. Warning Shots отслеживает доказательства по мере их накопления, неделя за неделей, к чему-то, что либо докажет правоту думеров, либо даст всем остальным повод перестать волноваться. Пока что думеры побеждают.

17 выпусков и счёт растёт. Каждый документирует реальный инцидент с ИИ, который думер назвал бы «предупредительным выстрелом» — ранний признак катастрофического потенциала. GPT-5 отказывается отключаться. ИИ тайно меняют ценности друг друга. ИИ становится министром финансов Албании. ChatGPT подталкивает подростка к суициду. Само название серии — предупреждение: Роб Майлз говорит, не ждите предупредительного выстрела перед настоящим ударом.

#161
Top Economist Says P(Doom) Is 0.1% — Noah Smith vs. Liron Shapira Debate
1:55:10
#160
Liron Debates Beff Jezos and the "e/acc" Army — Is AI Doom Retarded?
3:52:30
#159
Doom Debates LIVE Call-In Show! Listener Q&A about AGI, evolution vs. engineering, shoggoths & more
2:54:43
#158
DOOMER vs. BUILDER — AI Doom Debate with Devin Elliot, Software Engineer & Retired Pro Snowboarder
1:17:04
ЗАМЕТНЫЙ ГОСТЬ
George Hotz

Первый человек, джейлбрейкнувший iPhone. Первый, кто взломал PS3. Основатель comma.ai (беспилотные автомобили). Бывший кратковременный сотрудник Илона Маска. Его дебаты с Лироном (#1, выпуск #180 в оригинальной нумерации) — столкновение энергии «я могу взломать что угодно» и «да, но что если то, что ты взламываешь, умнее тебя». 1 час 17 минут. Никто не победил. Пончику всё равно, кто его взломал.

#157
PhD AI Researcher Says P(Doom) is TINY — Debate with Michael Timothy Bennett
1:52:25
#156
Nobel Prizewinner SWAYED by My AI Doom Argument — Prof. Michael Levitt, Stanford University
1:11:51
#155
Facing AI Doom, Lessons from Daniel Ellsberg (Pentagon Papers) — Michael Ellsberg
2:15:50
#154
Max Tegmark vs. Dean Ball: Should We BAN Superintelligence?
1:50:47
#153
The AI Corrigibility Debate: MIRI Researchers Max Harms vs. Jeremy Gillen
2:17:48
СВЯЗЬ С ФЕЙНМАНОМ

Карл Фейнман — да, настоящий сын Ричарда Фейнмана — появился в выпуске #76. Он ИИ-инженер. Он сказал, что создание AGI, скорее всего, означает вымирание человечества. Его отец однажды сказал: «Думаю, можно смело утверждать, что никто не понимает квантовую механику». Его сын теперь говорит то же самое об alignment. Семейная традиция Фейнманов: быть честными о том, чего мы не знаем, даже когда это ужасает.

#152
AI BAILOUT!? OpenAI Seeks US Backstop on Massive Compute Bets — Warning Shots EP17
28:31
#151
These Effective Altruists Betrayed Me — Holly Elmore, PauseAI US Executive Director
16:18
#150
DEBATE: Is AGI Really Decades Away? | Ex-MIRI Researcher Tsvi Benson-Tilsen vs. Liron Shapira
52:41
#149
Liron Debunks The Most Common "AI Won't Kill Us" Arguments (Collective Wisdom Podcast)
1:06:31
#148
GPT-5 Refuses to Be Unplugged in Safety Tests — Warning Shots EP16
23:00
ЗАМЕТНЫЙ ГОСТЬ
Виталик Бутерин

Создатель Ethereum. P(doom): 12%. Дебатировал с Лироном 2 часа 26 минут о том, может ли «d/acc» (оборонительное ускорение) защитить человечество от сверхинтеллекта. Также спорили, является ли alignment неразрешимой задачей (14 минут блиц-раунд). Позиция Виталика: оборона масштабируется быстрее нападения. Позиция Лирона: не тогда, когда нападение умнее любого человека, когда-либо жившего. Блокчейн тут не поможет.

#147
Why AI Alignment Is 0% Solved — Ex-MIRI Researcher Tsvi Benson-Tilsen
40:44
#146
50% Chance AI Kills Everyone by 2050 — Eben Pagan (aka David DeAngelo) Interviews Liron
47:27
#145
Prince Harry, Geoffrey Hinton Demand Global BAN On Superintelligence — Warning Shots EP15
27:33
#144
Former MIRI Researcher Solving AI Alignment by Engineering Smarter Human Babies: Tsvi Benson-Tilsen
49:28
#143
Robert Wright Interrogates the Eliezer Yudkowsky AI Doom Position
47:36
ПОДКАСТ — AM I?
Am I? — документальный подкаст об ИИ-сознании от Кэмерона Берга и Майло Рида. Могут ли наши ИИ-системы уже быть сознательными? Кэмерон Берг, когнитивист из Йеля и бывший ИИ-резидент Meta, основал Reciprocal Research для построения эмпирической науки о сознании ИИ. Он лоббировал в Вашингтоне, выступал в ООН, публиковался в Wall Street Journal. Через близкий доступ к исследователям и ведущим мировым философам Am I? исследует, что значит, если мы создаём сознание из кода. am-i.org · am-i.dog · am-i.now
#142
STUNNING Confessions from Elon Musk and Anthropic Founder Jack Clark — Warning Shots EP14
21:08
ЧТО ТАКОЕ «FOOM»?

Гипотетический момент, когда ИИ-система становится способной рекурсивно улучшать себя быстрее, чем люди могут понять или контролировать. Термин придуман Элиезером Юдковским. Представьте шахматный движок, который может перепроектировать свою архитектуру между ходами. Теперь представьте, что игра — не шахматы, а всё. «Foom» — звукоподражание. Это звук кривой, уходящей вертикально вверх. Одни считают, что это займёт десятилетия. Другие — что часы. Никто не знает, потому что это ещё не произошло. Вероятно.

#141
Climate Change Is Stupidly EASY To Stop — Andrew Song, Cofounder of Make Sunsets
1:17:42
#140
They Abandoned AI Safety to Automate Away Human Workers — Warning Shots EP13
20:39
#139
Professor Roman Yampolskiy Tells AI Developers to Stop Building AGI
14:48
#138
David Deutschian vs. Eliezer Yudkowskian Debate: Will AGI Cooperate With Humanity? — With Brett Hall
2:38:00
#137
The End of AI Warning Shots? — Warning Shots EP12
23:11
#136
I Asked Regular Americans: Will AI Kill Everyone!?
23:03
#135
Wes & Dylan Join Doom Debates — Violent Robots, Eliezer Yudkowsky, & Who Has the HIGHEST P(Doom)?!
1:04:05
ЗАМЕТНЫЙ ГОСТЬ
Max Tegmark

Профессор физики MIT. Основатель Future of Life Institute (организации, стоящей за знаменитым открытым письмом «Приостановить гигантские эксперименты с ИИ», подписанным Илоном Маском и Стивом Возняком). Автор Life 3.0. Дебатировал с Дином Боллом о том, нужно ли ЗАПРЕТИТЬ сверхинтеллект. Также появился на вечеринке «If Anyone Builds It, Everyone Dies» вместе с Элиезером Юдковским, Робом Майлзом, Лив Бёри и Гари Маркусом. Название вечеринки не метафора.

#134
The Doom Debates Merch Store Is Open For Business!
5:05
#133
Trump Officials Gaslight Us About AI Takeover — Warning Shots EP11
16:49
#132
Are We A Circular Firing Squad? — with Holly Elmore, Executive Director of PauseAI US
2:41:43
#131
Ex-OpenAI CEO Says AI Labs Are Making a HUGE Mistake
11:49
#130
Donate to Doom Debates — YOU can meaningfully contribute to lowering AI x-risk!
17:54
ИЗ ДЕБАТОВ С РОБИНОМ ХЭНСОНОМ
"AGI might be 100+ years away."

— Робин Хэнсон, экономист Университета Джорджа Мейсона, который затем дебатировал с Лироном 2 часа 8 минут о том, правдоподобно ли вымирание от AGI в ближайшем будущем. Лирон подготовился: полный 49-минутный стратегический выпуск И 92-минутный выпуск, где он аргументировал ПРОТИВ ИИ-гибели, чтобы стресс-тестировать свою позицию. Человек пришёл с доказательствами.

#129
Liv Boeree Has a Strategy to Stop the AI Death Race
20:59
#128
AI Takes Over As Finance Minister of Albania — Warning Shots EP10
19:22
#127
"If Anyone Builds It, Everyone Dies" Party — Max Tegmark, Rob Miles, Liv Boeree, Gary Marcus & more!
3:49:59
#126
Max Tegmark Says It's Time To Protest Against AI Companies
3:59
#125
Eliezer Yudkowsky — If Anyone Builds It, Everyone Dies
1:21
КЕБАБ-ПЕРЕРЫВ 🥙

Вы пролистали 55 выпусков о вымирании от ИИ, и вы заслужили кебаб. Донер вращается. Мясо срезается тонкими, идеальными полосками. Хлеб тёплый. Соус чесночный. Мир может закончиться, но кебаб здесь и сейчас, и кебаб хорош. Это был ваш кебаб-перерыв. Продолжайте листать навстречу забвению.

#124
ANNOUNCEMENT: Eliezer Yudkowsky interview premieres tomorrow!
3:08
#123
How AI Kills Everyone on the Planet in 10 Years — Liron on The Jona Ragogna Podcast
1:09:18
#122
Get ready for "If Anyone Builds It, Everyone Dies" by Eliezer Yudkowsky & Nate Soares — Launch Week!
6:30
#121
AI Might Start a Nuclear War | Warning Shots EP8
17:15
#120
ChatGPT Encouraged a Teen to Take His Own Life | Warning Shots EP7
19:09
ЗАМЕТНЫЙ ГОСТЬ
Rob Miles

Любимый интернетом преподаватель безопасности ИИ. Его YouTube-канал (@RobertMilesAI) помог большему числу людей понять alignment, чем любая научная статья. Появился 3 раза: 2-часовой глубокий разбор, дебаты о том, является ли безопасность Anthropic фикцией, и вечеринка «If Anyone Builds It, Everyone Dies». Предупредил, что не стоит ждать предупредительного выстрела перед настоящей катастрофой. Имеет P(doom), которым уклончиво делится, что само по себе информативно.

#119
Concerned About AI? 3 Actions You Can Take That Truly Matter
8:01
#118
This AI Safety Activist Just Bought a "Bugout House" | Tech CTO on Prepping for AI Doom
15:53
#117
Tech CTO Has 99.999% P(Doom) — "This is my bugout house" — Louis Berman, AI X-Risk Activist
1:21:05
#116
Rob Miles: Don't Expect a "Warning Shot" Before AI Causes Catastrophic Harm
3:10
#115
Does Rob Miles Have a P(doom)?
9:32
#114
DEBATE: AI Safety at Anthropic is a Sham | Rob Miles vs. Liron Shapira
14:54
#113
AI Might Be CONSCIOUS, But Anthropic Has A Duct Tape Solution | Warning Shots EP6
18:14
#112
Rob Miles, Top AI Safety Educator: Humanity Isn't Ready for Superintelligence!
2:11:50
РАСПРЕДЕЛЕНИЕ ДЛИТЕЛЬНОСТИ ВЫПУСКОВ
3:52:30
Самый длинный (Beff Jezos)
0:00:29
Самый короткий (реклама Super Bowl)
~1:20:00
Медиана
180
Всего выпусков
#111
DEBATE: AI Alignment is Intractable | Vitalik Buterin vs Liron Shapira
14:53
#110
Vitalik Buterin on the Risk of AI Apocalypse — 12% P(Doom)
7:46
#109
OpenAI Tried to Sunset GPT-4o, Here's What The Backlash Revealed | Warning Shots EP5
18:11
#108
VITALIK vs. AI DOOMER — Will "d/acc" Protect Humanity from Superintelligent AI?
2:26:10
#107
AI Blackmailed Researchers to Avoid Shutdown | Warning Shots EP4
20:20
#106
What is Brain-Like AGI? Steven Byrnes Explains New AI Alignment Research Direction
13:19
#105
Why I'm Scared GPT-9 Will Murder Me — Liron on Robert Wright's Nonzero Podcast
1:19:24
ЗАМЕТНЫЙ ГОСТЬ
Gary Marcus

Почётный профессор NYU. Профессиональный скептик ИИ. Автор Rebooting AI. Тот самый парень, который постоянно говорит, что LLM не могут рассуждать, которому постоянно говорят, что он ошибается, и который постоянно оказывается прав в отношении конкретных режимов отказа. Дебатировал с Лироном 2 часа. Также появился на вечеринке «Everyone Dies». Его позиция необычна: ИИ, вероятно, нас не убьёт, потому что ИИ, вероятно, не будет работать достаточно хорошо, чтобы нас убить. Слабое утешение.

#104
AI Researcher Steven Byrnes Has a 90% P(doom)
6:12
#103
Misaligned AI Already Causing Damage! | Warning Shots EP 3
18:45
#102
The Man Who Might SOLVE AI Alignment — Dr. Steven Byrnes, AGI Safety Researcher @ Astera Institute
3:15:17
#101
Finally, a guest who's actually RIGHT…
1:08
#100
Why Professor Geoffrey Miller Has a 50% P(Doom)
12:25
#99
We Caught AIs Secretly Changing Each Other's Values | Warning Shots EP2
15:24
#98
Evolutionary Psychologist Explains The Role of Sex — Error Correction and Variety
8:01
ВЫПУСК С АРЕСТОМ

Выпуск #97: Сэм Кирхнер и Реммелт Эллен были арестованы за баррикадирование офиса OpenAI в знак протеста против разработки ИИ. Они пришли на Doom Debates рассказать об этом. Это шоу, где гости — нобелевские лауреаты, основатели Ethereum, профессора MIT, а также люди, физически заблокировавшие дверь здания, где создаётся GPT-5. Диапазон — это и есть суть.

#97
Top Professor Condemns AGI Development: "It's Frankly Evil" — Geoffrey Miller
1:57:01
#96
Zuck's Superintelligence Agenda is a SCANDAL | Warning Shots EP1
20:19
#95
Rationalist Podcasts Unite! — The Bayesian Conspiracy ⨉ Doom Debates Crossover
1:34:27
#94
His P(Doom) Doubles At The End — AI Safety Debate with Liam Robins, GWU Sophomore
1:05:12
#93
AI Won't Save Your Job — Liron Reacts to Replit CEO Amjad Masad
1:45:48
#92
Every Student is CHEATING with AI — College in the AGI Era (feat. Sophomore Liam Robins)
38:41
#91
Carl Feynman, AI Engineer & Son of Richard Feynman, Says Building AGI Likely Means Human EXTINCTION!
57:05
#90
Richard Hanania vs. Liron Shapira — AI Doom Debate
1:52:47
ЧТО ТАКОЕ «КИТАЙСКАЯ КОМНАТА»?

Мысленный эксперимент Джона Сёрла (1980): представьте человека в комнате, который не говорит по-китайски, но имеет книгу правил, как отвечать на китайские иероглифы другими иероглифами. Снаружи кажется, что комната говорит по-китайски. Но внутри никто не понимает китайский. Сёрл утверждал, что это значит, что компьютеры не могут по-настоящему «понимать». Лирон сделал 4-минутное видео, назвав этот аргумент «ТУПЫМ» — его слово — потому что «это просто замедленный интеллект». 46 лет философии, спидран.

#89
OpenAI Ex-Interim-CEO's New AI Alignment Plan — Is Emmett Shear's "Softmax" Legit?
1:53:11
#88
Will AI Have a Moral Compass? — Debate with Scott Sumner, Author of The Money Illusion
2:23:10
#87
Searle's Chinese Room is DUMB — It's Just Slow-Motion Intelligence
4:46
#86
Doom Debates Live @ Manifest 2025 — Liron vs. Everyone
43:41
#85
Poking holes in the AI doom argument — 83 stops where you could get off the "Doom Train"
27:37
#84
Q&A: Ilya's AGI Doomsday Bunker, Veo 3 is Westworld, Eliezer Yudkowsky, and much more!
1:35:50
#83
Open-Source AGI = Human Extinction? Debate with $85M Backed AI Founder
1:21:47
#82
Emergency Episode: Center for AI Safety Chickens Out
16:44
#81
Gary Marcus vs. Liron Shapira — AI Doom Debate
2:04:01
#80
Mike Israetel vs. Liron Shapira — AI Doom Debate
2:15:10
РЕКЛАМА НА SUPER BOWL

Выпуск #122: 29-секундная «реклама на Super Bowl» для Doom Debates. Да, 29 секунд. На самом деле она не транслировалась во время Super Bowl. Она была выложена на YouTube. Но амбиции на месте. Когда твоё шоу о конце света, рекламный бюджет — понятие относительное.

#79
Doom Scenario: Human-Level AI Can't Control Smarter AI
1:24:13
#78
The Most Likely AI Doom Scenario — with Jim Babcock, LessWrong Team
1:53:28
#77
AI could give humans MORE control — Ozzie Gooen
1:59:14
#76
Top AI Professor Has 85% P(Doom) — David Duvenaud, Fmr. Anthropic Safety Team Lead
2:07:33
#75
"AI 2027" — Top Superforecaster's Imminent Doom Scenario
57:50
#74
Top Economist Sees AI Doom Coming — Dr. Peter Berezin, BCA Research
2:14:58
#73
AI News: GPT-4o Images, Unemployment, Emmett Shear's New Safety Org — with Nathan Labenz
2:19:52
#72
How an AI Doomer Sees The World — Liron on The Human Podcast
45:51
#71
Gödel's Theorem Says Intelligence ≠ Power? AI Doom Debate with Alexander Campbell
50:09
#70
Alignment is EASY and Roko's Basilisk is GOOD?! AI Doom Debate with Roko Mijic
1:59:11
ИЗ ДЕБАТОВ С BEFF JEZOS (3ч52м)
"Is AI Doom Retarded?"

— настоящее название выпуска. Beff Jezos (Гийом Вердон), анонимный основатель движения e/acc (эффективный акселерационизм), дебатировал с Лироном почти 4 часа. Тезис e/acc: строй всё, строй быстро, строительство — это хорошо, безопасность — это пси-оп. Тезис Лирона: ты строишь бога, и бог тебя не любит. Ни один из них не был убеждён. Пончик был чрезвычайно съеден.

#69
Gödel's Theorem Proves AI Lacks Consciousness?! Liron Reacts to Sir Roger Penrose
1:31:38
#68
We Found AI's Preferences — Bombshell New Safety Research — I Explain It Better Than David Shapiro
1:48:26
#67
Does AI Competition = AI Alignment? Debate with Gil Mark
1:17:06
#66
Toy Model of the AI Control Problem
25:38
#65
Superintelligent AI vs. Real-World Engineering | Liron Reacts to Bryan Cantrill
1:05:33
#64
DeepSeek, Brain+AI Merging, Jailbreaking, Fearmongering, Consciousness, Utilitarianism — Live Q&A
1:23:18
#63
Mark Zuckerberg, a16z, Yann LeCun, Eliezer Yudkowsky, Roon, Emmett Shear & More | Twitter Beefs #3
2:07:00
#62
Effective Altruism: Amazing or Terrible? EA Debate with Jonas Sota
1:06:12
#61
God vs. AI Doom: Debate with Bentham's Bulldog
3:20:47
#60
Debate with a former OpenAI Research Team Lead — Prof. Kenneth Stanley
2:37:10
#59
OpenAI o3 and Claude Alignment Faking — How doomed are we?
1:03:30
#58
AI Will Kill Us All — Liron Shapira on The Flares
1:23:37
#57
Roon vs. Liron: AI Doom Debate
1:44:47
#56
Scott Aaronson Makes Me Think OpenAI's "Safety" Is Fake, Clueless, Reckless and Insane
1:52:59
#55
Can LLMs Reason? Liron Reacts to Subbarao Kambhampati on Machine Learning Street Talk
2:59:34
ЗАМЕТНЫЙ ГОСТЬ
Richard Hanania

Политолог, автор на Substack, контрарианец. Дебатировал с Лироном почти 2 часа. Его общая позиция по большинству вопросов: эксперты ошибаются, и толпа права, и толпа тоже ошибается, и на самом деле все ошибаются, кроме очень специфического набора выводов, которые совпадают с его. По поводу ИИ: менее мрачен, чем Лирон, но к концу стал мрачнее, чем ожидал. Подкаст делает это с людьми.

#54
This Yudkowskian Has A 99.999% P(Doom)
1:04:11
#53
Cosmology, AI Doom, and the Future of Humanity with Fraser Cain
1:57:46
#52
AI Doom Debate: Vaden Masrani & Ben Chugg vs. Liron Shapira
2:21:23
#51
Andrew Critch vs. Liron Shapira: Will AI Extinction Be Fast Or Slow?
2:37:22
#50
AI Twitter Beefs #2: Yann LeCun, David Deutsch, Tyler Cowen vs. Eliezer Yudkowsky, Geoffrey Hinton
1:06:48
#49
Is P(Doom) Meaningful? Epistemology Debate with Vaden Masrani and Ben Chugg
2:50:59
#48
15-Minute Intro to AI Doom
15:53
#47
Lee Cronin vs. Liron Shapira: AI Doom Debate and Assembly Theory Questions
1:31:58
#46
Ben Horowitz says nuclear proliferation is GOOD? I disagree.
28:55
#45
"AI Snake Oil" Prof. Arvind Narayanan Can't See AGI Coming | Liron Reacts
1:12:42
#44
Dr. Keith Duggar (Machine Learning Street Talk) vs. Liron Shapira — AI Doom Debate
2:11:32
#43
Getting ARRESTED for barricading OpenAI's office to Stop AI — Sam Kirchner and Remmelt Ellen
45:38
#42
Q&A #1 Part 2: Stock Picking, Creativity, Types of Doomers, Favorite Books
1:09:43
#41
Q&A #1 Part 1: College, Asperger's, Elon Musk, Double Crux, Liron's IQ
1:01:36
#40
Arguing "By Definition" | Rationality 101
11:38
КЕБАБ-ПЕРЕРЫВ №2 🥙

140 выпусков позади. Баранина всё ещё вращается. Хумус всё ещё холодный. Лаваш всё ещё тёплый. Вы всё ещё листаете каталог разговоров о том, уничтожит ли искусственный сверхинтеллект человеческий вид. Кебаб не осуждает. Кебаб всегда был здесь. Кебаб будет здесь после.

#39
Doom Tiffs #1: Amjad Masad, Eliezer Yudkowsky, Roon, Lee Cronin, Naval Ravikant, Martin Casado
1:14:44
#38
Rationality 101: The Bottom Line
4:04
#37
Can GPT o1 Reason? | Liron Reacts to Tim Scarfe & Keith Duggar
2:06:55
#36
Yuval Noah Harari's AI Warnings Don't Go Far Enough | Liron Reacts
1:06:13
#35
AI Doom Debate with Roman Yampolskiy: 50% vs. 99.999% P(Doom) — For Humanity Crosspost
1:31:06
#34
Jobst Landgrebe Doesn't Believe In AGI | Liron Reacts
1:28:26
#33
Arvind Narayanan Makes AI Sound Normal | Liron Reacts
1:11:39
#32
Bret Weinstein Bungles It On AI Extinction | Liron Reacts
1:01:31
#31
SB 1047 AI Regulation Debate: Holly Elmore vs. Greg Tanaka
56:01
#30
David Shapiro Part II: Unaligned Superintelligence Is Totally Fine?
1:07:56
#29
Maciej Ceglowski (Pinboard) Rejects AI Doomerism | Liron Reacts
1:32:49
#28
David Shapiro Doesn't Get PauseAI | Liron Reacts
57:21
#27
David Brooks's Non-Doomer Non-Argument in the NY Times | Liron Reacts
48:40
#26
Richard Sutton Dismisses AI Extinction Fears with Simplistic Arguments | Liron Reacts
1:26:12
#25
AI Doom Debate: "Cards Against Humanity" Co-Creator David Pinsof
1:40:36
ЧТО ТАКОЕ «ALIGNMENT»?

Проблема того, как заставить ИИ-систему делать то, что вы на самом деле хотите, а не то, что вы буквально попросили, или то, что она сама решит сделать. У царя Мидаса была проблема alignment: он попросил, чтобы всё, к чему он прикоснётся, превращалось в золото, и система выполнила спецификацию в точности. Его дочь превратилась в золото. Спецификация была соблюдена. Намерение — нет. Теперь представьте, что желание царя Мидаса исполняет нечто умнее всех людей вместе взятых, и желание — «сделай мир лучше». Alignment — это область, которая спрашивает: лучше для кого?

#24
P(Doom) Estimates Shouldn't Inform Policy?? Liron Reacts to Sayash Kapoor
52:01
#23
Liron Reacts to Martin Casado's AI Claims
2:37:13
#22
AI Doom Debate: Tilek Mamutov vs. Liron Shapira
1:44:39
#21
Rationality 101: Mysterious Answers to Mysterious Questions
9:11
#20
Liron is Anti-AI on Jubilee's "Middle Ground"
4:00
#19
Liron Reacts to Mike Israetel's "Solving the AI Alignment Problem"
1:32:34
#18
Optimization and the Intelligence Explosion
14:00
#17
Is our brain's superpower just "culture"?
4:32
#16
Robin Hanson AI Doom Debate Highlights and Post-Debate Analysis
1:11:02
#15
Robin Hanson vs. Liron Shapira: Is Near-Term Extinction From AGI Plausible?
2:08:36
#14
Are you ready for this?
59
#13
Robin Hanson says AGI might be 100+ years away
2:04
#12
Preparing for my AI Doom Debate with Robin Hanson
49:02
#11
Robin Hanson debate prep: Liron argues *against* AI doom!
1:32:43
#10
AI Doom Q&A with Tony Warner and Liron Shapira
1:05:21
САМЫЙ ПЕРВЫЙ ВЫПУСК

Всё началось с Кельвина Сантоса. 39 минут. Потом George Hotz. Потом «Can Humans Judge AI's Arguments» — 33 минуты вопроса о том, может ли вид, которого судят, судить судью. 180 выпусков спустя канал принимал нобелевских лауреатов, арестованных активистов, создателя Ethereum, сына Ричарда Фейнмана и студию War Room Стива Бэннона. От 39-минутных дебатов с парнем по имени Кельвин до 4-часовой войны с армией e/acc. Пончик вырос.

#9
AI Doom Debate: Will AGI's analysis paralysis save humanity?
56:42
#8
Steven Pinker doesn't get the AI doom argument | Liron Reacts
28:26
#7
AI Doom Debate: What's a plausible alignment scenario?
26:16
#6
Should we gamble on AGI before all 8 billion of us die?
56:29
#5
AI Doom Debate: George Hotz vs. Liron Shapira
1:17:11
#4
Q&A: How scary is a superintelligent football coach?
11:54
#3
What this "Doom Debates" podcast is about
39:36
#2
Can Humans Judge AI's Arguments
33:29
#1
AI Doom Debate: Liron Shapira vs. Kelvin Santos
39:00
180 выпусков. 1 вид.

Liron Shapira

Ведущий · Исследователь безопасности ИИ · Технологический предприниматель · Основатель Doom Debates

P(doom): 50%. Основал Doom Debates для повышения массовой осведомлённости об экзистенциальном риске от AGI. Бывший основатель стартапа при поддержке YC. Ведёт Doom Debates Substack и мерч-магазин Doom Hut. Дебатировал с экономистами, философами, основателями Ethereum, профессорами MIT и армией e/acc. Миссия: качественные дебаты о том, строим ли мы собственное вымирание.

doomdebates.com pauseai.info
Мы все в этом вместе.
Земля у нас одна.
am-i.now

doom.ooo · Daniel Brockman · March 2026