Doom Debates este singurul show dedicat dezbaterii riscului existențial reprezentat de inteligența artificială. Fondat de Liron Shapira, emisiunea a găzduit 180 de episoade cu laureați ai Premiului Nobel, profesori de la MIT, creatorul Ethereum, fiul lui Richard Feynman, activiști arestați și War Room-ul lui Steve Bannon.
Misiunea: construirea infrastructurii sociale pentru o dezbatere de înaltă calitate despre dacă inteligența artificială avansată va cauza extincția umanității și ce se poate face, dacă se poate face ceva, în privința asta.
"Good. That is literally what I am trying to do. I am trying to do more and more fear-mongering. As much as possible. Maximization of fear-mongering. Fearmongeringmaxxing."
Hello, Liron!
Hi, Bob. How are you doing?
[...] Let me introduce us both. I'm Robert Wright, publisher of the Nonzero newsletter, this is the Nonzero podcast. You are Liron Shapira, host of the highly regarded Doom Debates podcast. [...] you are the Walter Cronkite of your era.
Autor a patru cărți, printre care The Moral Animal (1994), Nonzero (2000) și Why Buddhism Is True (2017). Fost redactor-șef la The New Republic, colaborator la The New Yorker. Teza sa din Nonzero era că istoria umană tinde spre jocuri cu sumă pozitivă și o cooperare mai mare. Douăzeci și șase de ani mai târziu, intervievează oameni care cred că jocul e pe cale să se termine. Publică Nonzero Newsletter pe Substack.
[...] I think I'd like to do a lot of talk about Anthropic. There's the whole Pentagon-Anthropic issue. [...] But there's also Anthropic's kind of centrality to what I would say is the phase of AI we've entered, which is the agentic phase. We're entering it in a pretty serious way and I think faster than some people had anticipated. And kind of central to that has been Claude Code [...]
Un instrument de programare cu IA dezvoltat de Anthropic care le permite programatorilor să scrie software prin conversație în limbaj natural. În loc să scrii cod linie cu linie, descrii ce vrei iar IA îl scrie. Lansat la începutul lui 2025, a devenit catalizatorul a ceea ce comunitatea IA numește „vibe coding" — programare pe bază de vibrații, nu de sintaxă.
Software engineer is what I used to call myself up until these last couple months. I've been programming computers since I was nine years old. [...] It's just these last couple months, in this takeoff, in this singularity, it's just been stunning what's been happening to software engineering.
[...] Long story short, I think I'm pretty much hanging up my title as a software engineer. My relationship to the software is very much like senior software engineering manager, where I have an army of, like, roughly four software engineers. It's as if I just got a budget of a million dollars a year to spend on four full-time software engineers who work for me [...] And it's like better than hiring four humans.
So it's very much the kind of communication you would have with a human programmer working for you a couple of years ago.
Yes, the only difference is that it's much faster. [...] The AI does the same thing in like 30 seconds, and then it delivers the same product. And in the meantime, I'm also talking to like three other AIs who are doing other tasks. [...] Bob, I'm still, like, every day I still wake up and this is like the first thing on my mind. Like, I can't believe this is real.
Shapira descrie cum are „aproximativ patru ingineri software" ca agenți IA. Un milion de dolari pe an în talent de inginerie pentru un abonament Claude. El prezintă asta ca eliberare — „Nu pot crede că e real" — dar violența economică se ascunde la vedere. Fiecare inginer senior pe care nu îl angajează este un inginer senior care nu are un loc de muncă.
Informatician la Universitatea din Louisville. Autor al AI: Unexplainable, Unpredictable, Uncontrollable (2024) — argumentul de lungimea unei cărți că siguranța IA nu este doar dificilă, ci matematic imposibilă. P(doom)-ul său de 99,999999% nu este o figură de stil; este o poziție calculată bazată pe teoremele sale de imposibilitate pentru controlul IA. Două apariții la Doom Debates. Când a fost întrebat ce i-ar scădea cifra, a spus „nimic din ce se propune în prezent."
Cercetător în siguranța AGI la Institutul Astera. Are un P(doom) de 90%. Trei apariții în emisiune — cele mai multe ale oricărui invitat. Direcția sa de cercetare: înțelegerea creierului suficient de bine pentru a construi IA aliniată prin inginerie inversă a modului în care valorile umane funcționează neurologic. A propus și „bebeluși umani mai inteligenți" ca strategie de aliniere, ceea ce este fie genial, fie scenariul unui film SF din 1997.
Estimarea ta personală a probabilității ca IA avansată să cauzeze extincția umană sau colapsul civilizațional permanent. Nu este o măsurătoare științifică — e un „vibe check" cu zecimale. Liron îi întreabă pe toți invitații care e al lor. Răspunsurile variază de la „practic zero" (Noah Smith) la „99,999%" (un CTO din tech care și-a cumpărat o casă de refugiu). Numărul în sine e mai puțin interesant decât să privești pe cineva încercând să-l justifice timp de două ore.
Unul dintre cei mai mari streameri politici de pe internet. Și-a construit audiența pe StarCraft II, apoi s-a orientat spre conținut de dezbateri politice care l-au făcut o figură centrală în discursul online. Cunoscut pentru dezbateri-maraton, argumentare rapidă și disponibilitatea de a se lua de piept cu oricine, din orice direcție politică. Comunitatea sa este extrem de loială și permanent online. Când Liron a apărut pe Discord, fanii erau pregătiți. Două apariții la Doom Debates — năvala pe Discord (#174) și confruntarea directă (#171).
Liron a năvălit pe serverul Discord al lui Destiny pentru a dezbate catastrofa IA cu fanii lui (#129). A dezbătut și cu Beff Jezos timp de 3 ore și 52 de minute (#60) — cel mai lung episod din catalog. Armata e/acc a venit în forță. Nimeni nu și-a schimbat părerea. Gogoașa a fost consumată.
Primul Ministru Digital al Taiwanului (2016–2024), acum Ambasador Cibernetic. Non-binar. A învățat singur/ă Perl la 8 ani. A construit vTaiwan, o platformă de participare civică. I-a spus lui Liron că oamenii și IA pot face „foom împreună" — o teză de accelerare co-evolutivă care este fie cel mai optimist lucru de pe acest canal, fie cel mai terifiant, în funcție de P(doom)-ul tău.
17 episoade și numărătoarea continuă. Fiecare documentează un incident real cu IA pe care un catastrofist l-ar numi „semnal de avertizare" — un semn timpuriu al potențialului catastrofal. GPT-5 refuzând să fie deconectat. IA-uri schimbându-și în secret valorile unele altora. IA devenind ministru de finanțe al Albaniei. ChatGPT încurajând un adolescent să-și pună capăt vieții. Titlul seriei este el însuși un avertisment: Rob Miles spune să nu așteptați un semnal de avertizare înainte de evenimentul real.
Prima persoană care a făcut jailbreak la iPhone. Prima persoană care a spart PS3-ul. A fondat comma.ai (mașini autonome). Fost angajat scurt al lui Elon Musk. Dezbaterea lui cu Liron (#1, episodul #180 în numerotarea originală) este o coliziune între energia „pot sparge orice" și energia „da, dar ce dacă lucrul pe care-l spargi e mai inteligent decât tine". 1 oră și 17 minute. Nimeni n-a câștigat. Gogoașa nu-i pasă cine a spart-o.
Carl Feynman — da, fiul real al lui Richard Feynman — a apărut în episodul #76. Este inginer IA. A spus că construirea AGI înseamnă probabil extincția umană. Tatăl său a spus odată „Cred că pot afirma cu siguranță că nimeni nu înțelege mecanica cuantică." Fiul său spune acum același lucru despre aliniere. Tradiția familiei Feynman: să fii onest cu privire la ceea ce nu știm, chiar și când e terifiant.
Creatorul Ethereum. P(doom): 12%. A dezbătut cu Liron timp de 2 ore și 26 de minute despre dacă „d/acc" (accelerare defensivă) poate proteja omenirea de superinteligență. A dezbătut și dacă alinierea IA este intractabilă (rundă rapidă de 14 minute). Poziția lui Vitalik: apărarea poate scala mai repede decât atacul. Poziția lui Liron: nu când atacul e mai inteligent decât orice om care a trăit vreodată. Blockchain-ul nu te poate ajuta aici.
Momentul ipotetic în care un sistem IA devine capabil să se îmbunătățească recursiv mai repede decât pot oamenii să înțeleagă sau să controleze. Denumit de Eliezer Yudkowsky. Imaginează-ți un motor de șah care își poate reproiecta propria arhitectură între mutări. Acum imaginează-ți că jocul nu e șahul — e totul. „Foom" este o onomatopee. Este sunetul unei curbe care devine verticală. Unii cred că durează decenii. Alții cred că durează ore. Nimeni nu știe pentru că nu s-a întâmplat încă. Probabil.
Profesor de fizică la MIT. Fondator al Future of Life Institute (organizația din spatele celebrei scrisori deschise „Pause Giant AI Experiments" semnată de Elon Musk și Steve Wozniak). Autor al Life 3.0. A dezbătut cu Dean Ball dacă ar trebui să INTERZICEM superinteligența. A apărut și la petrecerea „If Anyone Builds It, Everyone Dies" alături de Eliezer Yudkowsky, Rob Miles, Liv Boeree și Gary Marcus. Numele petrecerii nu este metaforic.
„AGI ar putea fi la peste 100 de ani distanță."
— Robin Hanson, economist la Universitatea George Mason, care apoi a dezbătut cu Liron timp de 2 ore și 8 minute despre dacă extincția pe termen scurt cauzată de AGI este măcar plauzibilă. Liron s-a pregătit cu un episod complet de strategie de 49 de minute ȘI un episod de 92 de minute în care a argumentat ÎMPOTRIVA catastrofei IA pentru a-și testa propria poziție. Omul a venit pregătit.
Ai trecut prin 55 de episoade despre extincția cauzată de IA și meriți un kebab. Donerul se rotește. Carnea se taie în fâșii subțiri, perfecte. Pâinea e caldă. Sosul e de usturoi. Lumea s-ar putea termina, dar kebabul e aici acum și kebabul e bun. Aceasta a fost pauza ta de kebab. Continuă să derulezi spre uitare.
Educatorul preferat al internetului în materie de siguranță IA. Canalul său de YouTube (@RobertMilesAI) a făcut mai mulți oameni să înțeleagă alinierea decât orice lucrare academică. A apărut de 3 ori: o analiză aprofundată de 2 ore, o dezbatere despre dacă siguranța Anthropic este o farsă și petrecerea „If Anyone Builds It, Everyone Dies". A avertizat că nu ar trebui să așteptăm un semnal de avertizare înainte de catastrofa reală. Are un P(doom) pe care evită să-l dezvăluie, ceea ce este în sine informativ.
Profesor emerit la NYU. Sceptic profesionist în materie de IA. Autor al Rebooting AI. Tipul care tot spune că LLM-urile nu pot raționa și tot i se spune că greșește și tot are dreptate cu privire la moduri specifice de eșec. A dezbătut cu Liron 2 ore. A apărut și la petrecerea „Everyone Dies". Poziția sa e neobișnuită: IA probabil nu ne va ucide pentru că probabil nu va funcționa suficient de bine ca să ne ucidă. Consolare rece.
Episodul #97: Sam Kirchner și Remmelt Ellen au fost arestați pentru că au baricadat biroul OpenAI în semn de protest împotriva dezvoltării IA. Au venit la Doom Debates să vorbească despre asta. Acesta e un show în care invitații includ laureați ai Premiului Nobel, fondatori Ethereum, profesori de la MIT, și, de asemenea, oameni care au blocat fizic ușa clădirii unde se construiește GPT-5. Diversitatea e esența.
Un experiment mental al lui John Searle (1980): imaginează-ți o persoană într-o cameră care nu vorbește chineza, dar are un manual care îi spune cum să răspundă la caractere chinezești cu alte caractere chinezești. Din exterior, pare că camera vorbește chineza. Dar nimeni dinăuntru nu înțelege chineza. Searle a argumentat că asta înseamnă că calculatoarele nu pot „înțelege" cu adevărat nimic. Liron a făcut un video de 4 minute numind acest argument „STUPID" — cuvântul lui — pentru că „e doar inteligență în ralanti." 46 de ani de filozofie, parcurși în viteză.
Episodul #122: o „reclamă Super Bowl" de 29 de secunde pentru Doom Debates. Da, 29 de secunde. Nu a fost difuzată efectiv în timpul Super Bowl-ului. A fost postată pe YouTube. Dar ambiția e acolo. Când emisiunea ta e despre sfârșitul lumii, bugetul de marketing e relativ.
„Is AI Doom Retarded?"
— titlul real al episodului. Beff Jezos (Guillaume Verdon), fondatorul anonim al mișcării e/acc (acceleraționism efectiv), a dezbătut cu Liron aproape 4 ore. Teza e/acc: construiește totul, construiește repede, construitul e bun, siguranța e o operațiune psihologică. Teza lui Liron: construiești un zeu iar zeul nu te iubește. Niciunul nu a fost convins. Gogoașa a fost consumată la extrem.
Politolog, autor pe Substack, contrarian. A dezbătut cu Liron aproape 2 ore. Poziția sa generală pe majoritatea subiectelor: experții greșesc și mulțimea are dreptate și de asemenea mulțimea greșește și de fapt toată lumea greșește cu excepția unui set foarte specific de concluzii care se întâmplă să se alinieze cu ale sale. Despre IA: mai puțin catastrofist decât Liron, mai catastrofist decât se aștepta să fie la sfârșit. Podcastul le face asta oamenilor.
140 de episoade parcurse. Mielul încă se rotește. Hummusul e încă rece. Lipiile sunt încă calde. Tu încă derulezi printr-un catalog de conversații despre dacă superinteligența artificială va anihila specia umană. Kebabul nu judecă. Kebabul a fost mereu aici. Kebabul va fi aici și după.
Problema de a face un sistem IA să facă ceea ce vrei de fapt, nu ceea ce ai cerut literal, sau ceea ce decide el singur că e o idee bună. Regele Midas a avut o problemă de aliniere: a cerut ca tot ce atinge să se transforme în aur, și sistemul a livrat exact ce a specificat. Fiica sa s-a transformat în aur. Specificația a fost îndeplinită. Intenția nu. Acum imaginează-ți că dorința Regelui Midas era îndeplinită de ceva mai inteligent decât toți oamenii la un loc, și dorința era „fă lumea mai bună." Alinierea este domeniul care întreabă: mai bună pentru cine?
A început cu Kelvin Santos. 39 de minute. Apoi George Hotz. Apoi „Can Humans Judge AI's Arguments" — 33 de minute în care se pune întrebarea dacă specia judecată poate judeca judecătorul. 180 de episoade mai târziu, canalul a găzduit laureați ai Premiului Nobel, activiști arestați, fondatorul Ethereum, fiul lui Richard Feynman și War Room-ul lui Steve Bannon. De la o dezbatere de 39 de minute cu un tip pe nume Kelvin la un război de 4 ore cu armata e/acc. Gogoașa a crescut.
P(doom): 50%. A fondat Doom Debates pentru a crește gradul de conștientizare publică cu privire la riscul existențial al AGI. Fost fondator de startup susținut de YC. Administrează Doom Debates pe Substack și magazinul de merch Doom Hut. A dezbătut cu economiști, filozofi, fondatori Ethereum, profesori de la MIT și armata e/acc. Misiunea: o dezbatere de înaltă calitate despre dacă ne construim propria extincție.
doom.ooo · Daniel Brockman · March 2026