Doom Debates — единственное шоу, посвящённое дебатам об экзистенциальном риске от искусственного интеллекта. Основанное Лироном Шапирой, шоу выпустило 180 выпусков с участием нобелевских лауреатов, профессоров MIT, создателя Ethereum, сына Ричарда Фейнмана, арестованных активистов и студии War Room Стива Бэннона.
Миссия: создать социальную инфраструктуру для качественной дискуссии о том, приведёт ли продвинутый ИИ к вымиранию человечества и можно ли что-то с этим сделать.
"Good. That is literally what I am trying to do. I am trying to do more and more fear-mongering. As much as possible. Maximization of fear-mongering. Fearmongeringmaxxing."
Hello, Liron!
Hi, Bob. How are you doing?
[...] Let me introduce us both. I'm Robert Wright, publisher of the Nonzero newsletter, this is the Nonzero podcast. You are Liron Shapira, host of the highly regarded Doom Debates podcast. [...] you are the Walter Cronkite of your era.
Автор четырёх книг, включая The Moral Animal (1994), Nonzero (2000) и Why Buddhism Is True (2017). Бывший старший редактор The New Republic, штатный автор The New Yorker. Его тезис в Nonzero: история человечества движется к играм с положительной суммой и к большему сотрудничеству. Двадцать шесть лет спустя он берёт интервью у людей, которые считают, что игре скоро конец. Публикует Nonzero Newsletter на Substack.
[...] I think I'd like to do a lot of talk about Anthropic. There's the whole Pentagon-Anthropic issue. [...] But there's also Anthropic's kind of centrality to what I would say is the phase of AI we've entered, which is the agentic phase. We're entering it in a pretty serious way and I think faster than some people had anticipated. And kind of central to that has been Claude Code [...]
Инструмент для программирования на основе ИИ от Anthropic, позволяющий разработчикам писать софт через разговор на естественном языке. Вместо того чтобы писать код строка за строкой, вы описываете, что вам нужно, а ИИ пишет код. Запущен в начале 2025 года — он стал катализатором того, что в ИИ-сообществе называют «вайб-кодинг» — программирование по ощущениям, а не по синтаксису.
Software engineer is what I used to call myself up until these last couple months. I've been programming computers since I was nine years old. [...] It's just these last couple months, in this takeoff, in this singularity, it's just been stunning what's been happening to software engineering.
[...] Long story short, I think I'm pretty much hanging up my title as a software engineer. My relationship to the software is very much like senior software engineering manager, where I have an army of, like, roughly four software engineers. It's as if I just got a budget of a million dollars a year to spend on four full-time software engineers who work for me [...] And it's like better than hiring four humans.
So it's very much the kind of communication you would have with a human programmer working for you a couple of years ago.
Yes, the only difference is that it's much faster. [...] The AI does the same thing in like 30 seconds, and then it delivers the same product. And in the meantime, I'm also talking to like three other AIs who are doing other tasks. [...] Bob, I'm still, like, every day I still wake up and this is like the first thing on my mind. Like, I can't believe this is real.
Шапира описывает, как у него есть «примерно четыре программиста» в виде ИИ-агентов. Миллион долларов в год инженерного таланта за подписку на Claude. Он подаёт это как освобождение — «I can't believe this is real» — но экономическое насилие прячется на виду. Каждый senior-инженер, которого он не нанимает, — это senior-инженер без работы.
Учёный-информатик из Университета Луисвилла. Автор книги AI: Unexplainable, Unpredictable, Uncontrollable (2024) — развёрнутого аргумента о том, что безопасность ИИ не просто сложна, а математически невозможна. Его P(doom) в 99,999999% — не риторический приём, а расчётная позиция, основанная на его теоремах о невозможности контроля ИИ. Два появления на Doom Debates. Когда его спросили, что могло бы снизить его оценку, он ответил: «ничего из того, что сейчас предлагается».
Исследователь безопасности AGI в Astera Institute. P(doom): 90%. Три появления в шоу — больше, чем у любого другого гостя. Направление его исследований: понять мозг достаточно хорошо, чтобы создать aligned ИИ путём обратной инженерии того, как человеческие ценности работают на нейрологическом уровне. Также предложил «более умных человеческих младенцев» как стратегию alignment — что либо гениально, либо является сюжетом научно-фантастического фильма 1997 года.
Ваша личная оценка вероятности того, что продвинутый ИИ приведёт к вымиранию человечества или необратимому краху цивилизации. Это не научное измерение — это проверка на ощущения с десятичными знаками. Лирон спрашивает каждого гостя. Ответы варьируются от «практически ноль» (Noah Smith) до «99,999%» (CTO из технологической компании, который купил убежище на случай апокалипсиса). Само число менее интересно, чем наблюдать, как кто-то пытается его обосновать в течение двух часов.
Один из крупнейших политических стримеров в интернете. Набрал аудиторию на StarCraft II, затем перешёл к политическим дебатам, став центральной фигурой онлайн-дискурса. Известен марафонскими дебатами, стремительной аргументацией и готовностью спорить с кем угодно из любого политического лагеря. Его комьюнити яростно лояльно и предельно онлайн. Когда Лирон появился в Discord, фанаты были наготове. Два появления на Doom Debates — вторжение в Discord (#174) и очная дуэль (#171).
Лирон ворвался на Discord-сервер Destiny, чтобы дебатировать с его фанатами об ИИ-гибели (#129). Он также дебатировал с Beff Jezos 3 часа 52 минуты (#60) — самый длинный выпуск в каталоге. Армия e/acc явилась. Никто не изменил мнения. Пончик был съеден.
Первый министр цифрового развития Тайваня (2016–2024), ныне кибер-посол. Небинарная персона. Самостоятельно выучил(а) Perl в 8 лет. Создал(а) vTaiwan — платформу гражданского участия. Сказал(а) Лирону, что люди и ИИ могут «фумнуть вместе» — тезис о со-эволюционном ускорении, который является либо самой оптимистичной вещью на канале, либо самой пугающей, в зависимости от вашего P(doom).
17 выпусков и счёт растёт. Каждый документирует реальный инцидент с ИИ, который думер назвал бы «предупредительным выстрелом» — ранний признак катастрофического потенциала. GPT-5 отказывается отключаться. ИИ тайно меняют ценности друг друга. ИИ становится министром финансов Албании. ChatGPT подталкивает подростка к суициду. Само название серии — предупреждение: Роб Майлз говорит, не ждите предупредительного выстрела перед настоящим ударом.
Первый человек, джейлбрейкнувший iPhone. Первый, кто взломал PS3. Основатель comma.ai (беспилотные автомобили). Бывший кратковременный сотрудник Илона Маска. Его дебаты с Лироном (#1, выпуск #180 в оригинальной нумерации) — столкновение энергии «я могу взломать что угодно» и «да, но что если то, что ты взламываешь, умнее тебя». 1 час 17 минут. Никто не победил. Пончику всё равно, кто его взломал.
Карл Фейнман — да, настоящий сын Ричарда Фейнмана — появился в выпуске #76. Он ИИ-инженер. Он сказал, что создание AGI, скорее всего, означает вымирание человечества. Его отец однажды сказал: «Думаю, можно смело утверждать, что никто не понимает квантовую механику». Его сын теперь говорит то же самое об alignment. Семейная традиция Фейнманов: быть честными о том, чего мы не знаем, даже когда это ужасает.
Создатель Ethereum. P(doom): 12%. Дебатировал с Лироном 2 часа 26 минут о том, может ли «d/acc» (оборонительное ускорение) защитить человечество от сверхинтеллекта. Также спорили, является ли alignment неразрешимой задачей (14 минут блиц-раунд). Позиция Виталика: оборона масштабируется быстрее нападения. Позиция Лирона: не тогда, когда нападение умнее любого человека, когда-либо жившего. Блокчейн тут не поможет.
Гипотетический момент, когда ИИ-система становится способной рекурсивно улучшать себя быстрее, чем люди могут понять или контролировать. Термин придуман Элиезером Юдковским. Представьте шахматный движок, который может перепроектировать свою архитектуру между ходами. Теперь представьте, что игра — не шахматы, а всё. «Foom» — звукоподражание. Это звук кривой, уходящей вертикально вверх. Одни считают, что это займёт десятилетия. Другие — что часы. Никто не знает, потому что это ещё не произошло. Вероятно.
Профессор физики MIT. Основатель Future of Life Institute (организации, стоящей за знаменитым открытым письмом «Приостановить гигантские эксперименты с ИИ», подписанным Илоном Маском и Стивом Возняком). Автор Life 3.0. Дебатировал с Дином Боллом о том, нужно ли ЗАПРЕТИТЬ сверхинтеллект. Также появился на вечеринке «If Anyone Builds It, Everyone Dies» вместе с Элиезером Юдковским, Робом Майлзом, Лив Бёри и Гари Маркусом. Название вечеринки не метафора.
"AGI might be 100+ years away."
— Робин Хэнсон, экономист Университета Джорджа Мейсона, который затем дебатировал с Лироном 2 часа 8 минут о том, правдоподобно ли вымирание от AGI в ближайшем будущем. Лирон подготовился: полный 49-минутный стратегический выпуск И 92-минутный выпуск, где он аргументировал ПРОТИВ ИИ-гибели, чтобы стресс-тестировать свою позицию. Человек пришёл с доказательствами.
Вы пролистали 55 выпусков о вымирании от ИИ, и вы заслужили кебаб. Донер вращается. Мясо срезается тонкими, идеальными полосками. Хлеб тёплый. Соус чесночный. Мир может закончиться, но кебаб здесь и сейчас, и кебаб хорош. Это был ваш кебаб-перерыв. Продолжайте листать навстречу забвению.
Любимый интернетом преподаватель безопасности ИИ. Его YouTube-канал (@RobertMilesAI) помог большему числу людей понять alignment, чем любая научная статья. Появился 3 раза: 2-часовой глубокий разбор, дебаты о том, является ли безопасность Anthropic фикцией, и вечеринка «If Anyone Builds It, Everyone Dies». Предупредил, что не стоит ждать предупредительного выстрела перед настоящей катастрофой. Имеет P(doom), которым уклончиво делится, что само по себе информативно.
Почётный профессор NYU. Профессиональный скептик ИИ. Автор Rebooting AI. Тот самый парень, который постоянно говорит, что LLM не могут рассуждать, которому постоянно говорят, что он ошибается, и который постоянно оказывается прав в отношении конкретных режимов отказа. Дебатировал с Лироном 2 часа. Также появился на вечеринке «Everyone Dies». Его позиция необычна: ИИ, вероятно, нас не убьёт, потому что ИИ, вероятно, не будет работать достаточно хорошо, чтобы нас убить. Слабое утешение.
Выпуск #97: Сэм Кирхнер и Реммелт Эллен были арестованы за баррикадирование офиса OpenAI в знак протеста против разработки ИИ. Они пришли на Doom Debates рассказать об этом. Это шоу, где гости — нобелевские лауреаты, основатели Ethereum, профессора MIT, а также люди, физически заблокировавшие дверь здания, где создаётся GPT-5. Диапазон — это и есть суть.
Мысленный эксперимент Джона Сёрла (1980): представьте человека в комнате, который не говорит по-китайски, но имеет книгу правил, как отвечать на китайские иероглифы другими иероглифами. Снаружи кажется, что комната говорит по-китайски. Но внутри никто не понимает китайский. Сёрл утверждал, что это значит, что компьютеры не могут по-настоящему «понимать». Лирон сделал 4-минутное видео, назвав этот аргумент «ТУПЫМ» — его слово — потому что «это просто замедленный интеллект». 46 лет философии, спидран.
Выпуск #122: 29-секундная «реклама на Super Bowl» для Doom Debates. Да, 29 секунд. На самом деле она не транслировалась во время Super Bowl. Она была выложена на YouTube. Но амбиции на месте. Когда твоё шоу о конце света, рекламный бюджет — понятие относительное.
"Is AI Doom Retarded?"
— настоящее название выпуска. Beff Jezos (Гийом Вердон), анонимный основатель движения e/acc (эффективный акселерационизм), дебатировал с Лироном почти 4 часа. Тезис e/acc: строй всё, строй быстро, строительство — это хорошо, безопасность — это пси-оп. Тезис Лирона: ты строишь бога, и бог тебя не любит. Ни один из них не был убеждён. Пончик был чрезвычайно съеден.
Политолог, автор на Substack, контрарианец. Дебатировал с Лироном почти 2 часа. Его общая позиция по большинству вопросов: эксперты ошибаются, и толпа права, и толпа тоже ошибается, и на самом деле все ошибаются, кроме очень специфического набора выводов, которые совпадают с его. По поводу ИИ: менее мрачен, чем Лирон, но к концу стал мрачнее, чем ожидал. Подкаст делает это с людьми.
140 выпусков позади. Баранина всё ещё вращается. Хумус всё ещё холодный. Лаваш всё ещё тёплый. Вы всё ещё листаете каталог разговоров о том, уничтожит ли искусственный сверхинтеллект человеческий вид. Кебаб не осуждает. Кебаб всегда был здесь. Кебаб будет здесь после.
Проблема того, как заставить ИИ-систему делать то, что вы на самом деле хотите, а не то, что вы буквально попросили, или то, что она сама решит сделать. У царя Мидаса была проблема alignment: он попросил, чтобы всё, к чему он прикоснётся, превращалось в золото, и система выполнила спецификацию в точности. Его дочь превратилась в золото. Спецификация была соблюдена. Намерение — нет. Теперь представьте, что желание царя Мидаса исполняет нечто умнее всех людей вместе взятых, и желание — «сделай мир лучше». Alignment — это область, которая спрашивает: лучше для кого?
Всё началось с Кельвина Сантоса. 39 минут. Потом George Hotz. Потом «Can Humans Judge AI's Arguments» — 33 минуты вопроса о том, может ли вид, которого судят, судить судью. 180 выпусков спустя канал принимал нобелевских лауреатов, арестованных активистов, создателя Ethereum, сына Ричарда Фейнмана и студию War Room Стива Бэннона. От 39-минутных дебатов с парнем по имени Кельвин до 4-часовой войны с армией e/acc. Пончик вырос.
P(doom): 50%. Основал Doom Debates для повышения массовой осведомлённости об экзистенциальном риске от AGI. Бывший основатель стартапа при поддержке YC. Ведёт Doom Debates Substack и мерч-магазин Doom Hut. Дебатировал с экономистами, философами, основателями Ethereum, профессорами MIT и армией e/acc. Миссия: качественные дебаты о том, строим ли мы собственное вымирание.
doom.ooo · Daniel Brockman · March 2026